Superintelligentie: een nieuwe religie
Sinds einde 2022 is het aantal berichten over artificiële intelligentie in de media sterk toegenomen, op twee manieren. Aan de ene kant maakten we kennis met een nieuwe AI-tool, een innovatieve chatbot, genaamd ChatGPT; er werd en wordt nog steeds gepolariseerd omtrent de voordelen en de nadelen van generatieve AI. Aan de andere kant ontspon zich sindsdien een hevige concurrentiestrijd tussen de groten uit de techsector, die nu zelfs streven naar superintelligentie. OpenAI maakt ChatGPT, Google maakte eerst Bard, nu Gemini, Copilot is van Microsoft, Anthropic (gesteund door Amazon en Google) maakt Claude, dan heb je nog Meta AI (geen idee van wie ;-), Grok van XAI (Elon Musk), en een handvol grote Chinese chatbots. Vanwaar die strijd?
Die chatbots kosten de producenten anders wel een hoop geld. Gevraagd naar de totale productiekosten van alle AI-chatbots sinds de invoering van ChatGPT, geeft ChatGPT zelf een ruwe schatting van 2.2 tot 2.5 miljard dollar. Copilot daarentegen zegt "hoewel er geen exact totaalbedrag bekend is, ligt de totale productiekost van AI-chatbots sinds 2022 waarschijnlijk ver boven de 100 miljard euro, en dat bedrag groeit nog elke dag". Je zou kunnen zeggen dat één van beide goed fout zit. Of allebei uiteraard. De vraag is ook moeilijk te beantwoorden; immers, wat tel je mee, en wat niet? Het gaat in elk geval wel om veel geld. Nog volgens Copilot: "Ondanks de miljardeninvesteringen, halen bedrijven zoals Google en Microsoft hun grootste inkomsten nog steeds uit advertenties en clouddiensten. De AI-chatbots zijn dus vooral een strategische investering, geen directe winstgenerator". Dus opnieuw: vanwaar die strijd?
Ik verzamel enkele recente artikelen over artificiële intelligentie voor een analyse.
1 – OpenAI en Meta stormen vooruit naar "superintelligentie", maar onze mening wordt niet gevraagd. Wat is superintelligentie, en waarom willen de techbonzen dat zo graag? Zelfs technologie-adepten als De Technocraat beginnen zich vragen te stellen bij de AI-wedloop.
2 – 'Studeren en diploma halen is achterhaald in tijden van AI': Laurent Alexandre op Trends Summer University. Over de gevolgen van het achternahollen van een begoocheling.
3 – AI-expert Karen Hao over de race richting superintelligentie: "Bedrijven als Facebook of Google denken altijd dat wat goed is voor hen, ook goed is voor de wereld". Een interessant interview over haar boek "Empire of AI".
4 – De AI-koorts wordt steeds hoger opgedreven. Over Meta en de oplopende temperatuur van de AI-concurrentiestrijd.
Geschiedenis blijft zich herhalen; zitten we met een nieuwe tulpenbollenmanie?
1 – OpenAI en Meta stormen vooruit naar "superintelligentie", maar onze mening wordt niet gevraagd
Zowel Sam Altman van OpenAI als Mark Zuckerberg van Meta heeft het plots over de "superintelligentie" die ze willen ontwikkelen. Maar wie wil dat eigenlijk zo dringend, behalve zijzelf?
Dominique Deckmyn, 13 juni 2025
AI-bedrijven beloven ons al enkele jaren artificial general intelligence of AGI. (1) Zie de Engelstalige Wikipedia voor een zeer uitgebreide beschrijving van Artificial general intelligence, en van Superintelligence, wat volgens sommigen iets heel anders is; vlag-en-ladingprobleem. De Nederlandstalige item over Kunstmatige algemene intelligentie is daarmee vergeleken bijzonder karig, en ziet "sterke AI", "volledige AI" of "algemene intelligente actie" als synoniemen; nog meer vlag-en-ladingproblemen dus. (2) 'Beloven' is hier een vreemde term, omdat er nog altijd controverse bestaat over de haalbaarheid en wenselijkheid van AGI. Maar ik veronderstel dat Deckmyn dit sarcastisch bedoelt. Dat is AI die alles kan wat u kunt – qua intellectuele prestaties, toch. En die dus, per definitie, uw kantoorjob kan overnemen. In de veronderstelling dat die job alleen intellectuele prestaties omvat, wat doorgaans niet het geval is. U hebt daar nochtans niet om gevraagd, en ik ook niet. Managerialisten zien die AI uiteraard wél graag komen, omdat die beheersbaarder lijkt dan personeel, en goedkoper (hoewel dat laatste nog moet blijken zodra Big Tech de echte rekening presenteert). Toch heeft OpenAI zich als doel gesteld om AGI te ontwikkelen "op zo'n manier dat de mensheid er baat bij heeft". Het zou de eerste keer zijn dat een techgigant niet eerst aan zichzelf denkt. Want dát de mensheid er baat bij heeft (als je het op zijn manier doet), daar gaat CEO Sam Altman gewoon van uit.
Maar in een zweverige, dromerige blogpost (daar heeft hij een patent op)(hij ziet er ook zo uit, vind ik), heeft Altman deze week de aankomstlijn verlegd. Hij praat plots niet meer over AGI, maar over "superintelligentie" (zie The Gentle Singularity; poging tot bekering, dus niet voor gevoelige lezers). De mensheid staat dicht bij de ontwikkeling daarvan, schrijft hij. "We weten nog niet hoe ver voorbij het niveau van menselijke intelligentie we kunnen gaan, maar we staan op het punt om daarachter te komen." Hij heeft zinsbegoochelingen, en probeert iedereen mee te sleuren. Ik denk onwillekeurig aan de rattenvanger van Hamelen.
Intermezzo
– Het verschil tussen Artificial General Intelligence (AGI) en Artificial Superintelligence (ASI) is blijkbaar een kwestie van niveau: algemene intelligentie evenaart de mens, superintelligentie stijgt er ver bovenuit, of zoiets. What's in a name? ChatGPT en Copilot geven ongeveer dezelfde omschrijving (zie verder), maar dat maakt het onderscheid niet bepaald duidelijk. Dat AGI 'algemeen' is, en ASI 'super', dat volgt vooral uit de naam, maar een naam is nog geen definitie. Bovendien kan 'super' ook 'algemeen' zijn, en 'algemeen' kan ook 'super' zijn; het blijft een vlag-en-ladingprobleem. Maar net zoals er domme en slimme mensen zijn kan je je misschien wel intelligentie voorstellen die verder gaat dan die van de mens; vooral science fiction auteurs zijn daar goed in. Dat komt er in elk geval op neer dat intelligentie een bepaald niveau heeft: je hebt domme intelligentie, superslimme intelligentie (ASI), en algemene intelligentie (AGI) ergens daartussen.
– Wat is intelligentie eigenlijk? Hier is het weer opletten voor een vlag-en-ladingprobleem. Als we het hebben over menselijke intelligentie gaat het om een eigenschap die mensen bezitten (de ene al wat meer dan de andere), en die diverse functies mogelijk maakt, zoals overeenkomsten en verschillen waarnemen, zich in de ruimte oriënteren, redeneren, plannen, problemen doorgronden en oplossen, in abstracties denken, ideeën en taal gebruiken, informatie opslaan en terughalen, leren uit ervaringen, en nog wat van die dingen. Artificiële intelligentie is een nabootsing van menselijke intelligentie, en heeft nog altijd een drager nodig, nl. een technisch systeem dat die eigenschap op één of andere manier vertoont, bv. bij het efficiënt sorteren van appels (niet-Gen-AI), of bij het samenvatten van een tekst (Gen-AI). Als we stellen dat "artificiële intelligentie onze kantoorjob kan overnemen", gaan we te gemakkelijk voorbij aan het feit dat daarvoor één of ander technisch systeem moet ontworpen, gebouwd en geïnstalleerd worden, wat in elk geval door mensen wordt beslist en uitgevoerd. Dat "AI onze job overneemt" is een omschrijving die apocalyptische beelden oproept (wat ook al intelligentie vereist :-), maar het is dus veel prozaïscher dan dat. Neoliberalisme en digitalisering hebben al veel jobs om zeep geholpen, kwantitatief, en vooral kwalitatief; AI helpt nog een handje.
– Waarom mikt Altman ineens op superintelligentie (ASI), als algemene intelligentie (AGI) nog niet bestaat? Zou hij al begrijpen dat veel experten intussen begrijpen dat AGI niet zomaar te realiseren valt, en daarom nog wat hoger mikken? Wordt de grond te heet onder zijn voeten? Wil hij daarom misschien in hogere sferen blijven (los van de hete grond), ook wetende dat je in hogere sferen gemakkelijker geld kan loskrijgen, als je ziet wat sommige kerkgemeenschappen 'vermogen'…? Goedgelovigheid was altijd al een basis voor anderen om rijk te worden. En net zoals OpenAI het aandurfde om een onbetrouwbare chatbot op de markt los te laten om de concurrentie vóór te blijven, is het nu ook de eerste die beweert superintelligentie te gaan realiseren, met de belofte de meest innoverende tulpenbollen te gaan kweken.
Kijken we even naar wat ChatGPT zelf te zeggen heeft over het verschil tussen AGI en ASI.
Ik corrigeer de ergerlijke gewoonte van AI-tools om na een dubbele punt een hoofdletter te schrijven.
Artificial General Intelligence (AGI)
Definitie: een kunstmatige intelligentie die net zo goed (of vergelijkbaar) kan denken, redeneren en leren als een mens op een breed scala aan taken. Merk op dat "een kunstmatige intelligentie" niet bestaat. Bedoeld wordt een technisch systeem dat intelligentie vertoont. Of nog: kunstmatige intelligentie is geen object, wel een eigenschap. Kunstmatige intelligentie voorstellen als een object geeft aan AI een zelfstandigheid die elke bespreking vervormt.
Kenmerken:
– Kan zich aanpassen aan nieuwe situaties zonder specifieke herprogrammering. Dit komt erop neer dat een technisch systeem dat intelligentie vertoont een taak zou kunnen leren waarvoor het niet getraind is. Dat een appelsorteerder ook appelsienen kan sorteren, daar kan ik mij iets bij voorstellen. Niettemin bestaat ook dán het gevaar dat variaties in de resultaten, die opnieuw worden gebruikt als trainingsmateriaal (anders kan dat ding immers niet zelfstandig leren) kunnen leiden tot instabiliteit van het systeem; dat is eenvoudige systeemkennis.
– Beheerst meerdere cognitieve functies zoals logisch redeneren, plannen, taal begrijpen, enzovoort. De gewone kenmerken van intelligentie.
– Is niet beperkt tot één domein (zoals een schaakcomputer of een vertaalmachine wel is). Om appelsortering en vertaling te combineren in één systeem zou je al gaan denken aan iets robotachtig dat een mens simuleert. Maar:
Doel: menselijk niveau van algemene intelligentie. Wie heeft daar iets aan? Een bedrijf zou wel gek zijn om daar geld aan te geven, omdat de afzonderlijke functies veel beter te beheersen zijn, en allicht ook veel goedkoper zijn dan een gecombineerd systeem. Maar blijkbaar heeft de techsector wél iets aan AGI, als je ziet hoe ze die momenteel najagen. Het idee van AGI bestaat al vele decennia, maar de aandacht ervoor is geëxplodeerd na de introductie van generatieve AI of Gen-AI op de markt. Wat concurrentie al kan veroorzaken.
Voorbeeld: een AGI (…) zou net zo goed kunnen koken (huh?), een boek schrijven (daar is geen AGi voor nodig; zie hier: print-on-demand, "independently published", geen boekinfo, veel te grote druk, waardeloze inhoud, allicht geschreven door Gen-AI), medische diagnoses stellen (zie bv. Wat als AI de mens inhaalt?, in de sectie "Breed scala") én een bedrijf leiden (HUH?!), allemaal op menselijk niveau (waar dat ook op mag slaan; dat ding zegt maar wat).
Artificial Superintelligence (ASI)
Definitie: een kunstmatige intelligentie (…) die ver boven het menselijk niveau uitstijgt op praktisch elk denkbaar gebied – van creativiteit tot probleemoplossend vermogen tot sociaal inzicht. Ja, man…
Kenmerken:
– Denkt sneller, heeft een beter geheugen, maakt minder fouten. (1) … dan wat? (2) Deze kenmerken zijn continu variabel en meervoudig, dus dit kan niet dienen als onderscheidend criterium.
– Zou mogelijk (zeer voorwaardelijk dus!) nieuwe wetenschap ontwikkelen (ach zo?), technologieën uitvinden (oeps?), en maatschappelijke systemen optimaliseren (jawadde) op manieren die mensen niet kunnen overzien (maar ASI wel…?). Maar allemaal onder voorwaarde dus. Dit is m.i. een hallucinatie, indien niet van ChatGPT, dan wel van de auteurs van de teksten waar ChatGPT dit uit heeft gehaald.
– Risico's (vaak besproken in ethiek en AI-beleid): omdat een ASI zoveel slimmer zou zijn dan mensen, zijn er zorgen over controle, veiligheid en ethiek. Zoals bij de atoombom. Die niet gebruikt wordt.
Voorbeeld: een ASI zou in een paar uur oplossingen kunnen vinden voor complexe problemen zoals klimaatverandering of kanker waar mensen decennia voor nodig hebben, of mogelijk nooit vinden. Van de pot gerukt. Oplossingen voor het klimaatprobleem zijn al honderdzevenentwintig keer bedacht, maar ze geraken niet doorgevoerd omdat de grote economische machthebbers daardoor hun pluimen zouden verliezen. Tegelijk kan je er donder op zeggen dat Big Tech geen systemen zal lanceren die haar eigen belangen schaden.
(Tussen haakjes: nog een mooi voorbeeld van het gebrek aan begrip bij Gen-AI. Op de vraag of "Big Tech" onzijdig, mannelijk of vrouwelijk is, zegt dat ding "meestal onzijdig", en het geeft enkele voorbeelden: "Het Big Tech-bedrijf heeft veel invloed" en "Het belang van Big Tech groeit". Wie de onzin niet ziet is klaar om zijn job te verliezen aan AI.)
Het artikel gaat verder:
Nu is superintelligentie een nog veel meer geladen term dan AGI (hoger niveau, "ver boven het menselijke", voor de mensen die zich zoiets kunnen voorstellen, zoals Sam Altman). Het ('Superintelligentie') is ook de titel van een uiterst invloedrijk boek uit 2014 van AI-doemdenker Nick Bostrom, waarmee hij AI-doemdenken op de kaart zette, eigenlijk (hier een recensie). En het betekent: AI die onze eigen intelligentie in elk opzicht ver overtreft. Altman suggereert eigenlijk dat AGI al in kannen en kruiken is – op naar het volgende, dus. Maar, verzekert hij de lezers, superintelligentie zal niet leiden tot het soort catastrofale Terminator-scenario's waar Bostrom voor waarschuwde. Wel tot een utopische wereld waarin robots en AI al het werk doen, terwijl mensen zich gelukzalig bezighouden met kunst en andere vormen van zelfexpressie (m.a.w. sex en drugs en rock&roll). Net zoals predikers allerhande het geloof in een opperwezen verspreiden, of de prijs van tulpenbollen opdrijven.
Lees ook Het dilemma voor de wetenschap: alle onderzoek aan AI laten om het sneller te laten gaan?. Hier wordt uitgelegd dat Google's Co-Scientist wetenschappelijk werk wel kan ondersteunen, maar het niet kan vervangen.
Ook Meta had het deze week over superintelligentie. Het bedrijf pompt 14,3 miljard dollar (zie verder) in Scale AI, het bedrijf van Alexandr Wang. Die laatste komt aan het hoofd van een soort 'A-team' van AI-bollebozen met als opdracht: superintelligentie ontwikkelen.
En nee, daar hebben wij zeker niet om gevraagd. Hij heeft een punt! Maar zo werkt het immers altijd in de techsector: nieuwe ontwikkelingen worden in de markt gepusht en opgeblazen en aangeprezen, en FOMO doet de rest. Toch geeft Silicon Valley duizelingwekkende bedragen uit, gebruikt het duizelingwekkende hoeveelheden energie en grondstoffen en schraapt het duizelingwekkend veel data (onze data!) van het internet, om die toekomst te realiseren. In ons aller belang, naar het schijnt. (1) Weer dat sarcasme, begrijpelijk overigens. Alles wat online staat, niet geëncrypteerd, is bereikbaar voor de techbonzen (en zelfs over de afscherming van geëncrypteerde data kan je twijfelen). Auteursrechten zijn uiteraard massaal met de vuile voeten getreden, anders kunnen die chatbots niet zoveel vragen beantwoorden. (2) Dat de kwaliteit van al die databronnen niet wordt gecontroleerd, laat staan gegarandeerd, is het meest genegeerde aspect van het hele Gen-AI-verhaal.
Laat ons eerst toch even terugkeren naar die impliciete suggestie dat AGI zo goed als gerealiseerd is. Dat ze dat eerst maar eens bewijzen. De nieuwste AI-modellen zoals OpenAI's o3 kunnen verbazende dingen. Maar de zogenoemde "AI agents" waar de AI-bedrijven nu de mond van vol hebben, zijn nog steeds niet in staat om zelfs maar de simpelste taken tot een goed einde te brengen. Na enkele minuten ontsporen ze meestal. Het is mogelijk dat die systemen de komende maanden spectaculair verbeteren, maar ik zou daar niet zomaar van uitgaan. Terecht kritische houding; zie ook de volgende paragraaf. Van iemand als De Technocraat vind ik dat zeker geruststellend.
En net deze week publiceerden onderzoekers van Apple (!) een studie getiteld The illusion of thinking. Ze trekken het redeneervermogen van generatieve AI-systemen sterk in twijfel. Net zoals begrip voor AI een zwart gat is. Apple lijkt het kneusje in de race naar superintelligentie. Of zou Apple net intelligent genoeg zijn om niet mee te doen aan de hype? Door hun fenomenale hoeveelheid trainingsdata klinken hun antwoorden namelijk slimmer dan ze echt zijn. Bij moeilijke redeneeropdrachten, waar op het internet niet zomaar een antwoord voor te vinden is, storten ze totaal in, zeggen de onderzoekers. Bij Apple zijn ze blijkbaar wat realistischer dan bij Meta of OpenAI. Wel, laat OpenAI en Meta dat eerst oplossen, als ze kunnen. Alvorens ze proberen ons superintelligentie te verkopen. Helemaal mee eens. Dank u wel, Dominique. Bij het zoeken naar "The illusion of thinking" kwam ik bovendien al snel uit bij The illusion of intelligence; ook interessante materie, aan te raden voor AI-beginners en -gevorderden. Veel van wat ik beweer op basis van gezond verstand (voor zover ik dat zelf mag beoordelen), wordt hier goed uitgelegd. De vertaalde conclusie, die meteen de sterke stijl weergeeft: "LLM's zijn krachtige hulpmiddelen om taal te genereren, maar het zijn geen geesten. Ze redeneren niet, begrijpen niet en onthouden niet. Het zijn statistische systemen die plausibele voortzettingen van tekst genereren op basis van aangeleerde patronen. Deze beperkingen zijn geen bugs die opgelost moeten worden, maar architecturale feiten. Verantwoord gebruik hangt af van het begrip van wat ze wel en niet kunnen". Moest er nog zand zijn?
2 –'Studeren en diploma halen is achterhaald in tijden van AI': Laurent Alexandre op Trends Summer University
Heeft het in tijden van artificiële intelligentie nog zin om studies aan te vatten? Volgens de Franse investeerder Laurent Alexandre niet: "AI is nu eenmaal veel slimmer dan de mens. Je kunt er beter leren mee te werken dan je tijd te vergooien met het verwerven van kennis." Alexandre kwam al aan bod als vermeend 'expert' in Wat als AI de mens inhaalt?, naar aanleiding van de Trends Summer University in 2023.
Patrick Claerhout, redacteur bij Trends, 10-07-2025
Laurent Alexandre is een Franse chirurg, die al vroeg geloofde in de kracht van artificiële intelligentie. Hij verkocht in 2008 zijn website Doctissimo, die medische informatie toegankelijk maakt, voor een pak geld aan Lagardère (een uitgever en verdeler van reisbenodigdheden) en investeert sindsdien in start-ups die werken rond artificiële intelligentie (AI). In oktober verschijnt een nieuw boek van zijn hand over hoe AI het leven van studenten, werknemers en bedrijven zal veranderen (let op: zeer waarschijnlijk gaat het om voorbarige extrapolaties)(of deze bewering zelf voorbarig is moet ook nog blijken, maar ik zou er iets op verwedden van niet). Alexandre deelde zijn inzichten exclusief (als hij er een boek over schrijft?) met de deelnemers aan de Trends Summer University in Knokke.
Als dokter weet Laurent Alexandre dat AI vier keer beter is in het stellen van een diagnose dan een gespecialiseerde dokter (alsof dokters dat per definitie 'weten'?): "AI plus een dokter is minder goed dan enkel AI (vreemde zin; de dubbele punt suggereert een verband dat er niet is)). Dat is een drama voor mijn beroep. Maar dat geldt niet enkel voor dokters, het gaat op voor een groot aantal beroepen." (1) Waar "AI plus een expert minder goed is dan enkel AI" zou ik een betere expert zoeken. (2) Stel je voor dat je onder Alexandre's mes terechtkomt…
Studeren voor dokter heeft in de gegeven omstandigheden geen zin meer, voert Alexandre aan: "Mijn advies aan jongeren is dat ze misschien nog studies kunnen aanvatten, maar dat ze er niet veel tijd mee mogen verliezen. Zeker niet als ze studeren aan een minderwaardige universiteit of hogeschool – zoals er vele zijn (??)(is hij ergens buitengezet als student?). Je kunt beter meteen beginnen te ondernemen. Dan maar zonder diploma? De artsenverenigingen zullen lachen. Studies zijn niet meer aangepast aan de nieuwe realiteit. Ik deel de mening van Peter Hill (een Australische skateboarder die uitgroeide tot een van de rijkste ondernemers van het land, nvdr) die zegt dat intelligente, innoverende en ondernemende mensen na de middelbare school het best meteen hun eigen onderneming opstarten." Wat ook je opinie is, je vindt altijd wel een verdediger.
Waarom? Alexandre: "Omdat er dankzij AI heel wat terreinen zijn waarop je een start-up kunt beginnen. AI kan je helpen nieuwe diensten te ontwikkelen. Als je gelooft dat AI alles kan, dan kan dit ook wel. Stel dat je een idee hebt, dan zal ChatGPT je als ondernemer veel sneller vooruit helpen dan in een klassieke onderneming met een strikte hiërarchie. Tegen de tijd dat iemand van je management begrepen heeft wat je precies bedoelt en hij met een antwoord komt, heeft ChatGPT je allang veel betere feedback bezorgd." Een antwoord krijg je inderdaad dadelijk, maar of dat altijd beter is? Zo betrouwbaar is ChatGPT niet; zie ook hier.
Want ChatGPT is slim, zegt Alexandre: "ChatGPT heeft een intelligentiequotiënt van 136, en elke week komt daar een punt bij. Het gaat dus razendsnel. ChatGPT is op dit moment al slimmer dan 99 procent van de Fransen of Belgen. Wie niet slim is moet sterk zijn; veel informatie kunnen verwerken is nog iets anders dan slim zijn. En de nieuwste modellen, die nog niet op de markt beschikbaar zijn, zijn nog krachtiger (hoe kan hij dat weten, als ze nog niet op de markt zijn? is hij een ziener?). Dat betekent dat de huidige ChatGPT-versie vrij middelmatig is in vergelijking met de AI-tools die de komende maanden en jaren beschikbaar zullen worden." Voorbarige extrapolatie.
Ik vraag aan ChatGPT of ChatGPT een intelligentiequotiënt heeft. Het antwoord is verrassend intelligent:
ChatGPT heeft geen intelligentiequotiënt (IQ) in de traditionele zin zoals mensen dat hebben. Het IQ is ontworpen om menselijke cognitieve vermogens te meten, zoals logisch redeneren, patroonherkenning, ruimtelijk inzicht en verbaal begrip. ChatGPT is een taalmodel dat getraind is op enorme hoeveelheden tekst, en het functioneert fundamenteel anders dan een menselijk brein.
Toch wordt er soms geprobeerd om de prestaties van AI-modellen te vergelijken met IQ-scores door ze IQ-tests te laten doen. Enkele belangrijke punten hierover:
– Schattingen van ChatGPT's IQ-achtige prestaties variëren. Sommige onderzoeken suggereren dat GPT-4 (waar ChatGPT op draait) op bepaalde IQ-tests zou kunnen presteren op het niveau van een hoogbegaafd persoon (bijvoorbeeld IQ 120–130+), maar dit is contextafhankelijk.
– Het model begrijpt geen informatie zoals mensen dat doen. Het voorspelt tekst op basis van waarschijnlijkheid en context, niet op basis van inzicht of bewustzijn. Inkaderen en boven je bed hangen!
– Bij het beantwoorden van IQ-achtige vragen maakt het gebruik van patronen uit de training, niet van "intelligentie" in de menselijke zin. En dit ernaast.
Kortom: ChatGPT heeft geen echt IQ, maar kan op sommige taken goed presteren die gelijkenissen vertonen met IQ-testvragen (oeps, syntaxfoutje). Die prestaties zijn echter niet direct te vertalen naar een echte IQ-score zoals bij mensen.
Anders gezegd: Alexandre vertelt onzin. Misschien is hij zelf een cyborg, gestuurd door AI?
Alexandre verwijst naar uitspraken van Sam Altman, de topman van OpenAI, het bedrijf achter ChatGPT: "Altman heeft een IQ van 170. Dat belooft voor AI-systemen met een nog hoger 'IQ'. Hij is een van de intelligentste mensen op aarde. You wish. En hij zegt dat hij waarschijnlijk minder intelligent zal zijn dan ChatGPT 5, de versie die een van de komende weken gelanceerd wordt. Dat zegt m.i. weinig over ChatGPT 5. Dat impliceert dat wij, gewone stervelingen, of we nu CEO, ondernemer of kaderlid zijn, minder intelligent zullen zijn dan AI. Waarom zou je dan nog investeren in studies of vorming, als AI sowieso slimmer en bijna gratis is?" (1) Misschien om je toch maar te profileren t.o.v. al die andere stervelingen die ook een inkomen zoeken? (2) Intelligentie, artificieel of menselijk, is geen object, wel een eigenschap van objecten. Elk gebruik van het begrip 'AI' als een zelfstandige entiteit leidt tot zinloze conversaties, mogelijk met bedrieglijke opzet.
Dat (de kracht van 'AI'…) moet volgens Alexandre bedrijven aanzetten om na te denken of ze op dezelfde manier blijven investeren in de vorming van hun medewerkers: "Op dit moment is 99 procent van het budget dat naar vorming en opleiding gaat weggesmeten geld. Daarnet ging het om studeren; dan ben je nog niet aan het werk. Vorming en opleiding in bedrijven is iets heel anders. Gebrekkige aspectscheiding. Werknemers worden er opgeleid in het uitvoeren van taken die AI zonder hen veel beter doet." Dit is speculatie op basis van voorbarige extrapolatie. Alexandres idee dat toevoeging van een expert een AI-systeem slechter maakt lijkt mij uniek. Misschien is het ingegeven door de neiging van een beunhaas om kritische pottenkijkers te weren.
De vraag is of we dan niet moeten vrezen voor een sociaal bloedbad? Bij de werknemers, of bij de werkgevers? "Er moeten in elk geval nieuwe pedagogische methodes ontwikkeld worden om het werk van werknemers complementair te maken aan artificiële intelligentie", antwoordt Alexandre. (1) Hij gaat hier uit van de incompatibiliteit van experten met superieure AI-systemen. (2) Moeten ze weer op zoek naar extra pedagogen. Maar waarom eigenlijk? Kan AI die dan niet vervangen? "Zoniet zullen bepaalde functies overbodig worden. Vooral de middelste en laagste klassen dreigen hiervan het slachtoffer te worden. En waarom zou dat zijn? Stof tot nadenken. Dat de overheid hier geen oog voor heeft, is schuldig verzuim." De overheid mag weer een oplossing zoeken voor de ellende die door de techsector is veroorzaakt.
Menselijke inbreng
Leren werken met AI is dus de boodschap. "Wie daar niet toe bereid is, zal zijn job verliezen", aldus Alexandre. "Het probleem is echter dat AI alleen sterker is dan de combinatie van AI en de mens. Opnieuw die bewering, die blijkbaar uitgaat van perfecte AI-systemen. Als je niets kunt toevoegen, komt je job in gevaar. Zelfs Bill Gates moest onlangs toegeven dat hij vreest dat werknemers in de toekomst niet langer competitief zullen zijn in vergelijking met AI." Gebrekkige aspectscheiding: eerst gaat het over de verzwakking van AI door de mens, dan over competitie tussen beide.
Hoe de menselijke inbreng complementair moet worden gemaakt aan AI wordt dus de grote uitdaging. Daarom moet het onderwijs compleet herdacht en hervormd worden, beklemtoont Alexandre: "Een onderzoek door de universiteit van Cambridge, een van de beste ter wereld, wees uit dat haar studenten er niet in slaagden beter te doen dan ChatGPT. Er werd een examenvraag gesteld waarop ChatGPT een antwoord gaf. De studenten kregen twee uur de tijd om beter te doen dan ChatGPT, en ze slaagden daar niet in!" Op een vraag aan ChatGPT naar bevestiging zegt het ding: "Alexandre verwijst waarschijnlijk naar een verhaspeld of verkeerd doorverteld experiment. De bestaande studies tonen weliswaar dat ChatGPT in bepaalde settings beter presteert dan studenten — vooral bij kennisvragen of essay‑verslagen (in tegenstelling tot analytische en creatieve taken!) — maar niet zoals hij beschrijft bij Cambridge met een examenvraag en twee uur tijd".
Dat zou volgens hem toch een alarm moeten doen afgaan. Dat zou volgens mij bij Trends Summer University een alarm moeten doen afgaan omtrent Alexandre. Of ten minste politici en onderwijsinstellingen in beweging brengen. "Maar neen, niets van dat. Men negeert het existentiële probleem dat AI aan de samenleving stelt. Existentieel zou ik het niet noemen, maar het probleem wordt inderdaad genegeerd, om de potentiële economische voordelen niet te schaden. AI is de olifant in de kamer, en die olifant gaat niet verdwijnen. Daarom is het cruciaal dat politici en onderwijsinstellingen nadenken over hoe jongeren opgeleid moeten worden (dat klopt) – in de wetenschap dat ze op een arbeidsmarkt komen waarop ze niet zullen kunnen concurreren met AI (dat is weer voorbarige extrapolatie)." Het is verbazend hoe weinig al die profeten wakker liggen van het al dan niet uitkomen van hun voorspellingen.
Als het zo doorgaat, evolueren we naar bedrijven die maar één werknemer tellen, de CEO/ondernemer, en die toch miljarden waard zullen zijn, voorspelt Alexandre: "Het aantal AI-agents zal de komende jaren heel snel toenemen. Zij zullen optreden als adviseur en persoonlijke assistent van de CEO/ondernemer. Tel uit de efficiëntiewinst tegenover een CEO die hordes kaderleden moet managen, terwijl die kaderleden veel minder snel handelen en reageren dan AI." Als dat kan, dan kan die CEO er ook nog wel bij. Iedereen werkloos, allemaal aan de zelfexpressie…
Bedrijven die daar niet in meegaan, zullen moeilijk kunnen concurreren tegen zulke AI-gedreven start-ups, poneert Alexandre: "Gevestigde ondernemingen zullen moeten afslanken en massaal AI-toepassingen integreren. Vooral op het niveau van het middenmanagement zal een sanering plaatsvinden. Zo niet, zullen ze de strijd verliezen tegen die AI-gedreven start-ups die tegen een fractie van de kosten kunnen werken." Alexandre ziet start-ups ontstaan die dankzij AI genadeloos concurreren met andere bedrijven, die vervolgens moeten transformeren om te overleven. Ongelooflijk. Is hij een goeroe? Is Sam Altman een goeroe?
Grote beperkingen
In een reactie op het discours van Laurent Alexandre ging Trends-hoofdredacteur Stijn Fockedey in gesprek met Ann Dooms, professor wiskunde aan de VUB, en Steven Latré, chief AI officer bij Open Chip en professor aan de UAntwerpen. Beide nuanceerden de provocatieve (!) uitspraken van Alexandre. Zij wezen op de beperkingen van AI.
Dooms: "AI-modellen zijn fantastisch voor taken die gemakkelijk kunnen worden geautomatiseerd als je voldoende input geeft. Maar we moeten durven toe te geven (aha!) dat er best veel misloopt. AI genereert nog altijd veel fouten. We noemen het intelligent, maar dat is het niet (!!). De meeste modellen lopen altijd op dezelfde manier in dezelfde val." Let wel op: het gaat hier nog altijd over generatieve AI. De gebruikelijke gebrekkige aspectscheiding (generatieve vs. andere AI) is zeer hardnekkig. De kritische opmerkingen van Dooms en Latré betreffen enkel generatieve AI. Uit diverse andere opinies over Gen-AI leid ik af dat we (individuele gebruikers, bedrijven, de markt,…) wel beginnen te begrijpen waar de beperkingen van Gen-AI liggen. Het verschil tussen religie en realisme blijkt wel nog steeds uit de AI-verkoopspraatartikelen die nog regelmatig verschijnen; zie ook A.I. in opmars. Of toch niet?.
Latré: "Ik denk dat we de laatste twee jaar een soort van naïef gebruik van generatieve AI (!) gezien hebben. Het was een storm die op ons afgekomen was, en we hebben met zijn allen geprobeerd te begrijpen wat we er nu juist mee konden doen. Ik denk dat AI een fantastische tool is, maar het heeft bijzonder grote beperkingen." Dank u, Steven.
Voor studenten is AI nochtans uitgegroeid tot een soort van orakel waarop ze vaak blind vertrouwen. "Tja, je zou voor minder als je zelf student zou zijn", zegt Latré. "Plotseling krijg je een instrument ter beschikking waaruit een volledige thesis rolt. Ik denk dat het nu vooral belangrijk is naar de toekomst te kijken om een juiste manier te vinden waarop AI gebruikt wordt. Als studenten het gebruiken als een soort van coach om zelf examenvragen te genereren en daarop verder te studeren, wat kan daarop tegen zijn? Dat is iets totaal anders dan klakkeloos inhoud genereren en daarna niet meer omkijken (wat allicht frequent gebeurt). AI als coach om je te helpen om te studeren, daar ben ik absoluut voor." Toch een gevaarlijke vergoelijking, vind ik. In een test van de opstelling van 10 ja/nee-vragen over een tekst haalde ChatGPT een schamele 4.5/10; zie ChatGPT onder de loep. Blijkbaar zijn mensen die in de techsector werken sterk geneigd het positieve te zien in nieuwe ontwikkelingen, terwijl de maatschappij beter af zou zijn zonder onbetrouwbare systemen.
Personalisering
Zou een robot of een chatbot dan een betere leraar kunnen zijn dan een mens, vroeg Trends-hoofdredacteur Stijn Fockedey zich af. "Alleszins niet in wiskunde", repliceerde Ann Dooms (dit antwoord was wel te verwachten van een professor wiskunde). "Een leerkracht wiskunde kruipt in het hoofd van een leerling en gaat daar graven (oeps? was dat niet voor psychiaters?). Zo'n AI-model is daar helemaal niet toe in staat (gelukkig maar). Fouten zijn vaak heel uniek, een geschiedenis van opeengestapelde fouten (foutsequenties! de wereld zit er vol mee). Dat is niet iets dat in de data sterk aanwezig is. Dus, om een paar oefeningen te maken, kan AI zeker helpen. Maar een leerling helpen die iets niet begrijpt, dat lukt AI helemaal niet." AI kent geen begrip, en zal dus ook niet begrijpen welke onderdeel de leerling niet begrijpt, en kan dan ook geen gerichte informatie geven.
"AI is een zaak van taalmodellen", bevestigt Latré. "Voor mij is dat niet meer dan een 'autocomplete' op steroïden. In de praktijk spuwt AI gewoon het ene woord na het andere, en in een aantal eenvoudige taken is het daar heel goed in. Maar als je dat vertaalt naar echt redeneren, en dan specifiek wiskunde, dan faalt zo'n taalmodel echt miserabel." Zie ook hoger, en in The illusion of intelligence.
Dooms gaf een concreet voorbeeld: "Vermenigvuldig twee getallen met elkaar. Als het over getallen bestaande uit drie cijfers gaat, zal AI een 100 procent accuraat antwoord leveren. Waarom? Ergens op het internet vind je wel die patronen. Maar als het gaat over getallen bestaande uit tien cijfers, dan daalt de accuraatheid van het antwoord naar minder dan 5 procent. Gewoon omdat het al veel complexer is, en daar zijn die modellen absoluut niet goed in." Een groot probleem daarbij is dat je de betrouwbaarheid van generatieve AI zo moeilijk kan beoordelen. De makers zijn erin geslaagd iets af te leveren dat betrouwbaar lijkt, maar niet is, met als gevolg dat de interpretatie van de betrouwbaarheid door gebruikers alle kanten uit gaat, wat dan weer een bron vormt van polarisatie.
"Er is in de huidige AI-systemen geen enkel pad naar echt redeneren, naar echte intelligentie zoals die ons als mens definieert", gaat ze verder (dus zeker geen AGI; zie hoger). "Betekent dit dat een AI-tool niets waard is? Helemaal niet, maar ik zou voorzichtig zijn om te beweren dat we daarop een soort van bovenmenselijke intelligentie kunnen bouwen. Doordat er zoveel data beschikbaar zijn en zoveel vragen gesteld worden, zit AI er meestal wel op. Maar dat is niet omdat ze slim is of omdat ze heel veel weet."
Latré gelooft wel sterk in de personalisatie van AI-tools: "De volgende stap is het creëren van wat we 'AI-agents' noemen: taalmodellen die we heel veel persoonlijke context meegeven en die zich op die manier ontwikkelen tot een persoonlijke onlinecoach of -assistent waarmee we heel snel kunnen interageren. Zo'n persoonlijke assistent kun je in gelijk welke professionele context gebruiken, bijvoorbeeld om meetings samen te vatten of om mee te brainstormen." (1) Dit komt neer op het efficiënt verwerken van grote hoeveelheden informatie. Een mens kan meer informatie verzamelen dan hij zelf kan verwerken; als je die verwerking kan overlaten aan een AI-systeem kan je dus veel capaciteit winnen (voor zover je systeem betrouwbaar is!). (2) Hier is onduidelijkheid over het begrip 'AI-agent'; kan die zelfstandig acties uitvoeren, zoals mails sturen of verwijderen?
Kortom: AI is een handige tool om eenvoudige taken te automatiseren, waaraan de mens vroeger misschien uren spendeerde. "En dat zorgt ervoor dat we meer tijd kunnen vrijmaken voor menselijke aspecten", besluit Latré op een positieve noot (de meeste menselijke aspecten zijn al lang ondergesneeuwd door problemen met technologie). "Met Open Chip zetten wij bijvoorbeeld AI in om professionele wielercoaches te ondersteunen. Dankzij AI hoeft die coach niet meer de hele tijd achter zijn computer te zitten. Hij kan focussen op wat de data leren, en daardoor heeft hij meer tijd om met de wielrenners zelf te spreken. Ik denk dat daar de kracht van AI zit: waar we misschien vroeger te veel achter de computer zaten, kunnen we nu (weer) meer tijd besteden aan de mens. Want daarmee gaan emotionele aspecten gepaard, en dat is juist de kracht van een mens, niet van AI." Of emotionele aspecten een kracht zijn van de mens, zou ik in een neoliberale economie durven betwijfelen.
3 – AI-expert Karen Hao over de race richting superintelligentie: "Bedrijven als Facebook of Google denken altijd dat wat goed is voor hen, ook goed is voor de wereld"
Om de paar maanden worden AI-systemen nog groter, nog duurder, nog energieverslindender en nog slimmer ("wie niet sterk is moet slim zijn" is een klassiek gezegde; AI-systemen vormen een mooi voorbeeld van het omgekeerde: wie niet slim is moet sterk zijn). Kan dat alleen maar leiden tot superintelligentie die onze eigen intelligentie overtreft en elke job kan overnemen? Die toekomst is niet onafwendbaar (als ze al mogelijk zou zijn), zegt Karen Hao.
Dominique Deckmyn, De Standaard, 11 juli 2025
Dit interview in De Standaard geeft een ontluisterend beeld van hoe OpenAI werkt, en hoe er tegenwoordig aan AI-ontwikkeling wordt gedaan, met Artificial General Intelligence (AGI) of Artificial Superintelligence (ASI) als doel. Voor wie toegang heeft: zeker lezen. Ik ga het niet fileren omdat er in dit zeer degelijke interview te weinig discutabel materiaal staat… De kern: AGI is voor OpenAI en co een nieuwe religie. Bangelijk.
Hieronder geef ik een korte samenvatting van het interview, zoals die is geproduceerd door een AI-tool (dus de kwaliteit is niet gegarandeerd ;-). Dit is de manier waarop deze tools dikwijls worden ingezet: een tekst laten samenvatten, of een bespreking maken over een specifiek onderwerp, en vervolgens het resultaat zonder veel controle overnemen. Ik heb de samenvatting nagekeken. Er staan geen fouten in, maar dat zegt niet alles; dit is een flauw afkooksel van het interview. Op de Wikipediapagina Empire of AI, over het boek van Karen Hao, staan in de 'References'-sectie onderaan enkele koppelingen naar besprekingen en interviews. Om meer te weten over het boek kan je eventueel dit bekijken: ChatGPT succeeded beyond OpenAI's wildest dreams. Then came the chaos.
Kritiek op de AI-industrie
– Hao stelt dat bedrijven als OpenAI, Google en Meta hun AI-ontwikkeling presenteren als goed voor de mensheid, terwijl die vooral hun eigen belangen dienen.
– Ze noemt OpenAI een "hypercommercieel imperium" dat is afgeweken van zijn oorspronkelijke non-profitmissie.
Gevolgen voor de samenleving
– De elite achter de race naar AGI (Artificial General Intelligence) legt de kosten bij kwetsbare gemeenschappen, o.a. in het Globale Zuiden, terwijl ze zelf de vruchten plukken.
– Hao beschrijft hoe AI-ontwikkeling leidt tot uitbuiting van arbeiders en milieuschade, zoals waterverbruik voor datacenters in landen als Chili.
Ideologie en controle
– Zowel de "boomers" (optimisten) als "doomers" (pessimisten) binnen de AI-wereld delen een techno-utopisch en autoritair wereldbeeld.
– Hao noemt het een quasi-religieuze overtuiging: een klein, gesloten circuit van invloedrijke mensen dicteert de toekomst van AI.
Regulering en verantwoordelijkheid
– Hao pleit voor meer onafhankelijk, publiek gefinancierd AI-onderzoek in Europa als tegengewicht voor de macht van Amerikaanse techbedrijven.
– Ze bekritiseert wetgeving, zoals de EU AI Act, die te veel uitgaat van technologische mythes zoals de "scaling laws".
Verzet en hoop
– In haar boek "Empire of AI" beschrijft ze hoe gemeenschappen wereldwijd terugvechten: van activisten die datacenters tegenhouden tot artiesten die eerlijke vergoeding eisen.
– Ze ziet in die lokale verzetsbewegingen de kiemen van verandering: als die wereldwijd worden versterkt, kunnen we volgens haar de AI-ontwikkeling socialer en rechtvaardiger maken.
Ik zeg al lang dat Gen-AI (ChatGPT, Copilot en consoorten) niet betrouwbaar is. Waarom daar zo weinig over in de pers verschijnt, daar heeft Hao een verklaring voor:
Zogenoemde AI-boomers geloven dat AGI kanker zal genezen, het klimaatprobleem oplossen en grenzeloze welvaart scheppen voor iedereen. AI-doomers geloven dat AGI onvermijdelijk aan onze controle ontglipt, de macht grijpt en de mensheid verknecht of zelfs uitroeit. Die twee groepen controleren al jaren het debat over AI, zodat onderzoekers als Timnit Gebru of Gary Marcus, die waarschuwen dat de technologie simpelweg niet goed werkt (!!), amper aan bod komen.
Merk ook op dat in de hele heisa telkens dezelfde basale fout opduikt, tot ze zelfs niet meer opvalt: het gaat over generatieve AI, niet over andere vormen van AI. Het gebruik van de term "artificiële intelligentie" als object, in plaats van als eigenschap van objecten, maakt de verwarring compleet.
Hoe dan ook, de geest is uit de fles. Andere partijen vinden dat ze niet kunnen achterblijven, wat de onderlinge concurrentie weer aanzwengelt, bv. bij Meta:
4 – De AI-koorts wordt steeds hoger opgedreven
Een AI-ontwikkelaar krijgt 100 miljoen dollar aangeboden om over te stappen naar Meta. De tulpenbollenkwekers zijn nu helemaal zot geworden. Zijn huidige werkgever doet hem een nog hoger bod om te blijven. Waar gaat dat allemaal naartoe?
Dominique Deckmyn, De Standaard, 27-06-2025
Koortsachtig is Mark Zuckerberg alle top AI-ontwikkelaars aan het contacteren om ze naar Meta te lokken. Daarbij zwaait hij met startbonussen van 100 miljoen dollar – ja, per persoon. Zo kaapte hij drie mensen weg bij OpenAI, waarna Sam Altman zich gedwongen zag om publiek te verklaren dat er "geen belangrijke namen" bij waren. Maar intussen blijkt Trapit Bansal, van het kernteam dat OpenAI's redenerende systeem o1 ontwikkelde, ook te zijn gezwicht voor de bankbiljetten van Zuckerberg. Deden dat nog: een half dozijn toppers van bij Google Deepmind, Safe Superintelligence en Thinking Machines Lab. Die laatste twee zijn de pas opgerichte bedrijven van respectievelijk Ilya Sutskever en Mira Murati, twee eerder opgestapte centrale figuren van OpenAI. Zuckerberg heeft trouwens eerst (of tegelijkertijd?) geprobeerd om Safe Superintelligence en Thinking Machines Labs in hun geheel over te nemen. Er heerst een schrijnend gebrek aan vermogensbelasting. Het is toch onverantwoordelijk van de maatschappij om bedrijven of mensen zoveel geld laten te verzamelen dat ze er zotte dingen mee gaan doen?
Zuckerbergs semi-overname van Scale AI eerder deze maand – 14,3 miljard voor 49 procent van het bedrijf– was dus maar het begin. Wat is er aan de hand?
Lees ook: Meta pompt 14,3 miljard in Scale AI en begint lab voor "superintelligentie"
Wel, eerst en vooral: Mark Zuckerberg weet dat hij achterloopt en hij doet wat hij in het verleden al een paar keer heeft gedaan: alles uit de kast halen om een inhaalbeweging te forceren. Tegen letterlijk eender welke kostprijs. Is Zuckerberg knettergek? Of de mensen rond hem? Organisatiepsychologie is een raar ding. Zoals toen hij Whatsapp kocht voor 22 miljard dollar.
Sam Altman houdt best in gedachten dat Zuckerberg met die tactiek al herhaaldelijk heeft gescoord. En niet alleen Zuckerberg is wanhopig. De mensen die de afgelopen twee weken níét naar Meta zijn overgestapt, die hebben van hun huidige werkgever een tegenbod ontvangen dat vermoedelijk van dezelfde grootteorde is. Niet dat élke AI-ontwikkelaar 100 miljoen waard is. Maar alle technologiebedrijven vechten om een klein kransje van absolute toppers – mensen die heel nauw betrokken waren bij de ontwikkeling van de grootste, meest succesvolle AI-modellen. Het zou gaan om hooguit een paar tientallen mensen. Ook volgens Karen Hao.
Diezelfde bedrijven lijken ondertussen niet bijzonder hard te proberen om de AI die ze al hebben, om te zetten in producten waar de doorsnee gebruiker iets aan heeft. Het gaat dus echt om een "hoger doel"? OpenAI heeft eigenlijk als enige een echt succesvol AI-product, namelijk ChatGPT. Nee, iedereen heeft de blik gericht op de hoofdprijs: AGI (artificial general intelligence) of, zoals het nu onomwonden wordt genoemd, superintelligentie. Sommigen forceren een onderscheid tussen Artificial general intelligence en Superintelligence.
En zo loopt de kostprijs om superintelligentie te bereiken, of zelfs maar in de race te blijven, steeds hoger op. Doet mij weer aan de tulpenbollenmanie denken. Amazon is nu voor Anthropic (ook een bedrijf opgericht door ex-OpenAI-toplui) een datacenter aan het bouwen dat 2,2 gigawatt aan elektriciteit zal verbruiken, de output van twee forse kerncentrales. Dat alles, om maar te kunnen aanklampen bij OpenAI en Google. Allemaal Joules die de aarde opwarmen.
Steeds vaker hoor je deze race vergelijken met twee andere historische technologische prestaties: het Manhattan-project (de atoombom) en het Apollo-project (de maanlanding). Die projecten werden veel strakker georganiseerd. En zonder AI! Toch is de vergelijking niet onzinnig. In de drie gevallen werden zo goed als ongelimiteerde middelen ingezet om iets te bereiken dat eigenlijk buiten het bereik van het toenmalige wetenschappelijke kunnen lag. En waarvan het nut voor de mensheid op zijn minst betwistbaar was. Allemaal omwille van machtsstrijd. Innovatief, dat wel…
Meer lezen:
– In Pursuit of Godlike Technology, Mark Zuckerberg Amps Up the A.I. Race – The New York Times, 27-06-2025 – Zuckerberg wil de inspanningen van Meta op het gebied van kunstmatige intelligentie opdrijven. Met een hoop geld op zak gooit hij zich in de competitie om 'superintelligentie' te ontwikkelen, ook al blijft dat een hypothese.
– Vergeet Musk, rivaal Sam Altman is nu het nieuwe "techmaatje" van Trump – De Standaard, 22-07-2025 – OpenAI-baas Sam Altman verdringt aartsrivaal Elon Musk als nieuwe "tech buddy" van Donald Trump, de nieuwe keizer (in zijn blootje).