Voor Covid sou ek myself as 'n tegnologiese optimis beskryf het. Nuwe tegnologieë kom amper altyd te midde van oordrewe vrese. Spoorweë was veronderstel om geestesinsnede te veroorsaak, fietse is gedink om vroue onvrugbaar of kranksinnig te maak, en vroeë elektrisiteit is geblameer vir alles van morele verval tot fisiese ineenstorting. Met verloop van tyd het hierdie angs vervaag, samelewings aangepas en lewenstandaarde gestyg. Die patroon was bekend genoeg dat kunsmatige intelligensie dit waarskynlik sou volg: ontwrigtend, soms misbruik, maar uiteindelik hanteerbaar.
Die Covid-jare het daardie vertroue ontwrig – nie omdat tegnologie misluk het nie, maar omdat instellings dit gedoen het.
Oor 'n groot deel van die wêreld het regerings en kundige liggame op onsekerheid gereageer met ongekende sosiale en biomediese ingrypings, geregverdig deur ergste-geval-modelle en met merkwaardige sekerheid afgedwing. Mededingende hipoteses is eerder gemarginaliseer as gedebatteer. Noodmaatreëls het verhard tot langtermynbeleid. Toe bewyse verskuif het, was erkennings van foute skaars, en aanspreeklikheid nog skaarser. Die ervaring het 'n dieper probleem as enige enkele beleidsfout blootgelê: moderne instellings blyk swak toegerus te wees om onsekerheid te bestuur sonder om te veel te doen.
Daardie les weeg nou swaar op debatte oor kunsmatige intelligensie.
Die KI-risikoverdeling
Oor die algemeen val kommer oor gevorderde KI in twee kampe. Een groep – geassosieer met denkers soos Eliezer Yudkowsky en Nate Soares – voer aan dat voldoende gevorderde KI by verstek katastrofies gevaarlik is. In hul doelbewus streng formulering, As iemand dit bou, sterf almal, die probleem is nie slegte bedoelings nie, maar aansporings: mededinging verseker dat iemand kortpaaie sal neem, en sodra 'n stelsel betekenisvolle beheer ontsnap, maak bedoelings nie meer saak nie.
'n Tweede kamp, insluitend figure soos Stuart Russell, Nick Bostrom en Max Tegmark, neem ook KI-risiko ernstig op, maar is meer optimisties dat belyning, noukeurige bestuur en geleidelike ontplooiing stelsels onder menslike beheer kan hou.
Ten spyte van hul verskille, stem beide kampe saam oor een gevolgtrekking: onbeperkte KI-ontwikkeling is gevaarlik, en een of ander vorm van toesig, koördinering of beperking is nodig. Waar hulle verskil, is oor uitvoerbaarheid en dringendheid. Wat egter selde ondersoek word, is of die instellings wat verwag word om daardie beperking te bied, self geskik is vir die rol.
Covid dui op rede vir twyfel.
Covid was nie bloot 'n openbare gesondheidskrisis nie; dit was 'n lewendige eksperiment in kundigegedrewe regering onder onsekerheid. Gekonfronteer met onvolledige data, het owerhede herhaaldelik maksimale intervensies gekies wat geregverdig is deur spekulatiewe skade. Meningsverskil is dikwels as 'n morele mislukking eerder as 'n wetenskaplike noodsaaklikheid behandel. Beleide is nie deur deursigtige koste-voordeel-analise verdedig nie, maar deur beroepe op gesag en vrees vir hipotetiese toekoms.
Hierdie patroon is belangrik omdat dit onthul hoe moderne instellings optree wanneer die belange as eksistensieel geraam word. Aansporings verskuif na beslissendheid, narratiewe beheer en morele sekerheid. Foutregstelling word reputasie-duur. Voorsorgmaatreëls hou op om 'n instrument te wees en word 'n leerstelling.
Die les is nie dat kundiges uniek gebrekkig is nie. Dit is dat instellings oormatige selfvertroue baie meer betroubaar beloon as nederigheid, veral wanneer politiek, befondsing en openbare vrees saamval. Sodra buitengewone magte in die naam van veiligheid opgeëis word, word dit selde gewilliglik prysgegee.
Dit is presies die dinamika wat nou sigbaar is in besprekings oor KI-toesig.
Die "Wat as"-masjien
'n Herhalende regverdiging vir uitgebreide staatsinmenging is die hipotetiese slegte akteur: Wat as 'n terroris dit bou? Wat as 'n skelm staat dit doen? Uit daardie uitgangspunt vloei die argument dat regerings voorkomend, op skaal en dikwels in geheimhouding moet optree om 'n ramp te voorkom.
Tydens Covid het soortgelyke logika omvattende biomediese navorsingsagendas, noodmagtigings en sosiale beheermaatreëls geregverdig. Die redenasie was sirkelvormig: omdat iets gevaarliks krag gebeur, moet die staat nou buitengewone stappe doen – aksie wat self beduidende, swak verstaanbare risiko's ingehou het.
KI-beheer word toenemend op dieselfde manier geraam. Die gevaar is nie net dat KI-stelsels onvoorspelbaar kan optree nie, maar dat vrees vir daardie moontlikheid permanente noodbeheer – gesentraliseerde beheer oor berekening, navorsing en inligtingsvloei – sal legitimeer op grond daarvan dat daar geen alternatief is nie.
Privaat Risiko, Openbare Risiko
Een onderskatte onderskeid in hierdie debatte is tussen risiko's wat deur private akteurs gegenereer word en risiko's wat deur staatsowerhede gegenereer word. Private firmas word beperk – onvolmaak, maar betekenisvol – deur aanspreeklikheid, mededinging, reputasie en markdissipline. Hierdie beperkings skakel nie skade uit nie, maar hulle skep terugvoerlusse.
Regerings funksioneer anders. Wanneer state in die naam van katastrofiese voorkoming optree, verswak terugvoer. Mislukkings kan herklassifiseer word as noodsaaklikhede. Koste kan geëksternaliseer word. Geheimhouding kan deur sekuriteit geregverdig word. Hipotetiese toekomstige skade word beleidshefbome in die hede.
Verskeie KI-denkers erken dit implisiet. Bostrom het gewaarsku oor "insluitings"-effekte – nie net van KI-stelsels nie, maar ook van bestuursstrukture wat tydens oomblikke van paniek geskep word. Anthony Aguirre se oproep tot globale terughouding, hoewel logies samehangend, steun op internasionale koördineringsliggame wie se onlangse rekord oor nederigheid en foutkorreksie swak is. Selfs meer gematigde voorstelle veronderstel dat reguleerders in staat is om politisering en missie-kruip te weerstaan.
Covid gee ons min rede om vertroue in daardie aanname te hê.
Die Toesigparadoks
Dit lei tot 'n kommerwekkende paradoks in die hart van die KI-debat. As 'n mens werklik glo dat gevorderde KI beperk, vertraag of gestaak moet word, is dit regerings en transnasionale instellings wat die meeste waarskynlik die mag sal hê om dit te doen. Tog is dit juis die akteurs wie se onlangse gedrag die minste vertroue gee in die ingehoue, omkeerbare gebruik van daardie mag.
Noodraamwerk is taai. Gesag wat verkry word om hipotetiese risiko's te bestuur, is geneig om voort te duur en uit te brei. Instellings verlaag selde hul eie belangrikheid. In die KI-konteks laat dit die moontlikheid ontstaan dat die reaksie op KI-risiko brose, gepolitiseerde beheerstelsels verskans wat moeiliker is om te ontrafel as enige individuele tegnologie.
Die gevaar, met ander woorde, is nie net dat KI menslike beheer ontsnap nie, maar dat vrees vir KI die konsentrasie van gesag versnel in instellings wat reeds bewys is dat hulle stadig is om foute te erken en vyandig teenoor andersdenkendes.
Heroorweging van die werklike risiko
Dit is nie 'n argument vir selfvoldaanheid oor KI nie, en ook nie 'n ontkenning dat kragtige tegnologieë werklike skade kan aanrig nie. Dit is 'n argument vir die verbreding van die raamwerk. Institusionele mislukking is self 'n eksistensiële veranderlike. 'n Stelsel wat welwillende, selfkorrigerende bestuur veronderstel, is nie veiliger as een wat welwillende, belynde superintelligensie veronderstel nie.
Voor Covid was dit redelik om die meeste tegnologiese pessimisme toe te skryf aan menslike negatiwiteitsvooroordeel – die neiging om te glo dat ons generasie se uitdagings uniek onhanteerbaar is. Na Covid lyk skeptisisme minder soos vooroordeel en meer soos ervaring.
Die sentrale vraag in die KI-debat is dus nie net of masjiene met menslike waardes in lyn gebring kan word nie, maar of moderne instellings vertrou kan word om onsekerheid te bestuur sonder om dit te versterk. As daardie vertroue geërodeer het – en Covid dui daarop dat dit wel het – dan verdien oproepe vir uitgebreide KI-toesig ten minste net soveel ondersoek as bewerings van tegnologiese onvermydelikheid.
Die grootste risiko is dalk nie dat KI te magtig word nie, maar dat vrees vir daardie moontlikheid vorme van beheer regverdig wat ons later ontdek baie moeiliker is om mee saam te leef – of te ontsnap.
-
Roger Bate is 'n Brownstone-genoot, Senior Genoot by die Internasionale Sentrum vir Reg en Ekonomie (Jan 2023-hede), Raadslid van Africa Fighting Malaria (September 2000-hede), en Genoot by die Instituut vir Ekonomiese Sake (Januarie 2000-hede).
Kyk na alle plasings