AI: een pionier maakt zich zorgen

Dit is een achtergrondartikel bij het artikel Artificiële intelligentie van 10-06-2023, waarin meer diverse aspecten van artificiële intelligentie behandeld worden.

Ik heb de gevaren van AI niet ernstig genoeg genomen

Zie ook het originele artikel in De Standaard, op door Dominique Deckmyn. Yoshua Bengio is naar verluidt één van de peetvaders van artificiële intelligentie, maar vandaag maakt hij zich blijkbaar grote zorgen over zijn uitvinding. Ik haal enkele opmerkelijke passages uit het interview, en voorzie ze van commentaar.


Bengio is bezorgd

Zijn grootste zorg? 'De onzekerheid en de omvang van de schade die aangericht kan worden als we machines bouwen die slimmer zijn dan wijzelf. De technologie kan ook misbruikt worden of op een onverstandige manier gebruikt. Beide scenario's kunnen catastrofale gevolgen hebben.' Verschillende aspecten hier, en een vlag-en-ladingprobleemje: het is niet duidelijk welke 'beide' scenario's bedoeld worden; de eerste zin had semantisch beter gekund, met enkele komma's erbij. Maar de drie aspecten zijn interessanter:

  • Hoezo machines bouwen die slimmer zijn dan wijzelf? Om te beginnen heb je daarvoor een definitie van het begrip 'slim' nodig. Geen entry over 'slim' op Wikipedia, wel over hoogbegaafd: een combinatie van een uitzonderlijke intelligentie, creativiteit en doorzettingsvermogen. Op dat laatste punt is een machine alvast onklopbaar, maar het probleem blijft: kan een machine intelligent zijn, of creatief? Een machine (bv. een computer, een appelsoorteerder, …) simuleert intelligentie en/of creativiteit, dat wel, maar simuleren is nog niet bezitten. Anderzijds gaat AI ogenschijnlijk verder dan we van een machine gewend zijn. Een tool als ChatGPT lijkt te begrijpen wat wij vragen, en lijkt daarop een zinnig antwoord te geven. Dan is het uiteraard begrijpelijk dat we dit gaan beschouwen als intelligentie. En als we (1) een machine kunnen maken die intelligent is, dan kunnen we (2) met wat meer moeite misschien ook een machine maken die intelligenter is dan wij (waar Bengio voor schijnt te vrezen). Die redenering bevat twee stappen, en volgens mij gaat het in de eerste al mis, en is de tweede bijgevolg geen probleem. Overigens, om de schijnbare intelligentie van een computer te vergelijken met die van een mens (die in sommige gevallen inderdaad ook schijnbaar is), wordt nogal eens verwezen naar de Turingtest. Het is interessant om enkele artikelen te zoeken op basis van turing test criticism, en na te lezen, al was het maar om in te zien dat ook menselijke intelligentie geen simpel onderwerp is.
  • Technologie kan worden misbruikt. Alles kan worden misbruikt. Alles wat nuttig kan misbruikt worden, zal ook misbruikt worden. Niks aan te doen. Of wél, maar dat staat dan los van AI.
  • Technologie kan op een onverstandige manier gebruikt worden. Ik vrees dat hierin het grootste gevaar van AI schuilt. AI foutief gebruiken geeft foutieve resultaten, en fouten planten zich voort als ze niet op tijd geaborteerd worden. En uiteindelijk zijn het fouten die een optimaal beheer van objecten, processen en systemen bemoeilijken, en ten slotte mee onze hele maatschappij om zeep helpen. Vermits AI-systemen intelligentie veinzen is het ook moeilijk om foutieve resultaten te identificeren. Het grootste gevaar is immers dat gebruikers de resultaten van AI-systemen gaan zien als die van een intelligent wezen, en er daarom zonder meer geloof aan gaan hechten, in plaats van als die van een machine, waarvan de betrouwbaarheid afhangt van de mens. Bengio is blijkbaar wel slim genoeg om bekend te worden met AI, maar niet slim genoeg om AI in een realistisch kader te plaatsen.

Op de achtergrond waart overigens nog een systeem van het zevende knoopsgat: wie gelooft dat een intelligent opperwezen ons leven bepaalt, die zal ook gemakkelijker geloven dat AI een eigen leven kan gaan leiden.

Evolutie

Bengio zelf begon 20 jaar geleden neurale netwerken te trainen door ze te voeden met tekst. 'We begonnen met zeer kleine datasets en zeer kleine neurale netwerken, maar de resultaten waren toch al interessant. In 2014 werd een nieuw element toegevoegd: een attentiemechanisme, dat maakt dat het taalmodel beter rekening kan houden met context. Toen we dat deden aan de universiteit, werkte het gewoon iets beter dan de bestaande systemen, maar echt indrukwekkend was het niet. Maar Google bouwde een groter neuraal netwerk, trainde dat op meer data en liet er goede engineering op los. Het resultaat was verbluffend. Toen begonnen we het effect van schaalvergroting te zien: we hoeven het recept van die neurale netwerken eigenlijk niet zo veel aan te passen, we maken ze gewoon groter, trainen ze langer en op meer data, en ze worden verbazingwekkend veel beter.'

En toch verandert dat in principe niets. ChatGPT blijft een tool, of een machine, en is geen intelligent wezen. Meer rekenkracht (en dus meer warmteproductie!) gaan daar niets aan veranderen. Jammer is wel dat door meer ontwikkelingen de simulatie van intelligentie ook verbetert, en dat dus ook het gevaar dat gebruikers erin trappen groter wordt. Op die manier zou AI wel eens een nieuwe dictator kunnen worden. Maar intelligent? Ammehoela.

We hebben de Turingtest gehaald, het moment waarop je mens en machine niet meer uit elkaar kunt houden als je ermee interageert door tekst in te tikken.'

De Turingtest stamt uit 1936, en lijkt mij overigens nogal overroepen; hebben we daar wel iets aan om de huidige AI-systemen te beoordelen? Wikipedia zegt bv. dit: "de Turingtest heeft veel commentaar uitgelokt; veel ervan komt erop neer dat het perfect nabootsen van intelligent menselijk gedrag niet hoeft te betekenen dat de nabootser zelf intelligent is, omdat er misschien geen werkelijk begrip aan te pas komt". Voilà. Daartegenover staat echter dat een "peetvader van de artificiële intelligentie" hier komt verklaren dat de Turingtest gehaald is, waaruit veel mensen (ook professionelen die beter zouden moeten weten) zullen afleiden dat de computer even 'slim' is geworden als de mens. ChatGPT is overigens nog niet officieel onderworpen aan de test. En toch wordt ze al beschouwd als geslaagd? Is het dan nu al om zeep? Blijkbaar laten we ons wel gemakkelijk overtuigen… Moet er nog zand zijn?

Politiek

Wat loopt er mis met de recente ontwikkelingen? 'Wel, er is net iets goeds aan het gebeuren: meer mensen worden zich bewust van de gevaren die misschien in het verschiet liggen. Eerst waren dat de mensen die de technologie ontwierpen en de bedrijven errond oprichtten. Maar ook politici zijn zich er mee gaan bemoeien en dat is heel belangrijk.' Hoe meer politici zich ermee moeien, hoe meer bedrijven denken dat ze hun gang kunnen gaan, en best zoveel mogelijk rapen vooraleer het niet meer mag. Of nog: regulering overlaten aan de politiek neemt voor de AI-producenten de noodzaak weg om zelf na te denken over ethische aspecten van AI.

'Ik ben ervan overtuigd dat er manieren zijn om veilige AI-systemen te bouwen – systemen waarover we de controle niet kunnen verliezen en die de mensheid echt kunnen helpen. Het probleem is: als we weten hoe we veilige AI-systemen moeten bouwen, dan weten we ook hoe we de gevaarlijke kunnen bouwen – dus: hoe verhinderen we dat dat gebeurt? En dat is een politieke vraag, geen technische.' Baarlijke nonsens. Eerder verweet ik Sam Altman al dat hij regulering bepleit, net om ze te vermijden. Het doorschuiven van de onzekerheid naar de politiek is een vervolg daarvan. Als de politiek ermee bezig is (en die lopen altijd achterna), kunnen de bedrijven voorlopig hun gang gaan. Volgens Bengio ziet Altman er oprecht uit, maar anderzijds: verklaren dat er regulering nodig is en dan zeggen dat de Europese wetgeving onmogelijk gerespecteerd kan worden, dat klinkt niet zo coherent.' Zand genoeg.

Iedereen mee in het bad

'Geoff Hinton zei enkele weken geleden: we moeten evenveel uitgeven aan het verbeteren van de algoritmes als aan het maken dat ze veilig zijn en dat we het publiek beschermen. Dat kunnen AI-researchers niet in hun eentje, we moeten werken met juristen, met mensen die de ethische aspecten begrijpen, specialisten in cybersecurity en in nucleaire, biologische en chemische wapens.' Met andere woorden: ze willen de verantwoordelijkheid voor ellende zelfs bij voorbaat afschuiven naar andere beroepsgroepen. En juristen zodanig mee in het bad trekken dat ze niets meer beginnen tegen AI.

Superintelligentie

Bengio betreurt dan ook dat hij niet eerder in actie is geschoten. 'Ik denk dat er een psychologisch obstakel is dat ons verhindert om iets te zien wat zo in tegenstelling is met het doel waar we naartoe werken. En daarom heb ik niet gedaan wat ik had moeten doen. Deze gevaren zijn al 10 à 20 jaar bekend, maar ze werden niet ernstig genomen omdat mensen als ik dachten: ach, dat ligt nog veel te ver in de toekomst, we hebben zelfs nog geen idee van hoe zulke AI-systemen eruit zullen zien, dus hoe kunnen we daar vandaag al iets aan doen? Maar nu is de situatie anders, nu staat het vlak voor ons.' 'Het' slaat vermoedelijk op 'het gevaar van AI'. De heisa is begonnen met ChatGPT en aanverwante taalmodellen. Maar dat zijn maar taalmodellen, met een specifieke toepassing en een beperkte reikwijdte. Over andere typen van AI-systemen is nog steeds niets gezegd. Wel begrijpelijk; het zijn net die taalmodellen die intelligentie lijken te vertonen. Andere AI-systemen spreken getallen, waar geen intelligentie uit blijkt.

En zelfs in hun huidige staat, met al hun gebreken, kunnen die systemen nuttig zijn. Alle mensen die ik om me heen zie, gebruiken ze.' Ongelooflijk, dat hij dit zegt, niet? Zelfs met al hun gebreken worden die systemen gebruikt!? En wat met de ellende die ze bijgevolg veroorzaken? De kraan staat al open; waar zijn de dweilen?

Bengio gelooft dat superintelligentie er over 10 jaar al kan zijn: "Ja, net als veel van mijn collega's". Een systeem dat de mens overtreft? Of door de mens niet meer begrepen wordt?

Denken als mensen

"Gedurende mijn hele carrière heb ik gedacht dat we inspiratie moesten halen uit de mens, moesten proberen om onze eigen intelligentie te imiteren. Nu denk ik dat dat een vergissing is. Het is belangrijk dat we begrijpen hoe het brein werkt, maar machines bouwen die erg lijken op mensen zou in veel opzichten een grote vergissing zijn. In sciencefiction zien we androïden en AI-systemen die min of meer als mensen zijn, maar dan mechanisch. Zoals Data in Star Trek. Dat beeld klopt volgens mij niet. Om te beginnen zijn machines in wezen onsterfelijk, want ze kunnen hun programmacode en hun staat kopiëren. Huh?? En hun hardware dan? Wij zijn fundamenteel anders. We ontwerpen die machines omdat we instrumenten willen bouwen die ons helpen. Maar misschien scheppen we een nieuwe soort die gevaarlijk is voor ons en zelfs voor het voortbestaan van onze eigen soort. Ik blijf dit onbegrijpelijk vinden. In het verleden zijn vele soorten uitgestorven, ­gewoonlijk omdat er een slimmere soort kwam. Ik neem wel aan dat die komst nooit werd veroorzaakt door de dommere soort, of ze moet wel heel dom geweest zijn."

"Als we die superintelligentie op een veilige manier bereiken, kan het (ze) ons helpen met veel van de uitdagingen waarvoor de mensheid staat: ziekte, klimaatverandering, armoede en economische ongelijkheid – problemen waar we geen of amper vooruitgang in boeken. Maar we moeten het op een veilige manier doen. En op dit moment weten we eigenlijk niet hoe dat moet. En dus moeten we het langzaamaan doen en werken aan maatregelen die de schade kunnen beperken." Héla mannekes. Nu is het wel genoeg met die onzin. Klimaatverandering en economische ongelijkheid zijn een gevolg van inherente eigenschappen van de mens, zoals hebzucht en machtswellust, niet van een gebrek aan intelligentie; zie bv. Onbehagen. Daar gaat artificiële intelligentie dus niets aan verhelpen. Ongelooflijk dat een "peetvader" dergelijke ideeën uitkraamt.

Oorlog tussen AI's

Mijn vriend en collega Yann LeCun zegt dat we waarschijnlijk de hulp van sommige AI-systemen nodig zullen hebben om ons te beschermen tegen mogelijke losgeslagen AI's. Dus daar staan we dan: we hebben die systemen nodig, maar tegelijk willen we ze niet. En als ze toch ergens opduiken, dan hebben wij er ook nodig om ons ertegen te beschermen. AI-systemen gebruiken om andere AI-systemen te bestrijden? Hier helpt zelfs geen filosofie tegen. De enige goede weg is die waarbij er niets moet bestreden worden.

Intelligent of niet

Voor de omgang met AI-systemen maakt het een groot verschil of we ze zien als intelligente wezens (die mogelijk uitgroeien tot een bedreiging) of als domme machines (die altijd te controleren vallen; mijn mening), maar dat aspect wordt nergens besproken. Ik vraag mij af waarom niet. The intelligence trap?

Een ander aspect is dat AI-systemen zijn gebouwd door mensen, en gevuld worden met data die van mensen afkomstig zijn, en daardoor ook kenmerken van mensen krijgen, bv. dat ze denkfouten maken. Zie bv. Lessons for artificial intelligence from the study of natural stupidity. Uit de samenvatting, vertaald: "wij stellen dat in plaats van machinesystemen te zien als universele verbeteringen ten opzichte van menselijke besluitvormers, beleidsmakers en het publiek zouden moeten erkennen dat deze systemen veel van dezelfde beperkingen hebben die vaak het menselijk beoordelingsvermogen belemmeren, om veel van dezelfde redenen". Een voorbeeldje in de New York Times: "Assembleelid Clyde Vanel zei dat het krijgen van wetgevende ideeën van A.I. niet anders was dan het accepteren van standpunten van kiezers of belangengroepen".