Artificiële intelligentie

ChatGPT heeft iets losgemaakt sinds 01-12-2022. In de pers verschenen dagelijks artikelen over de tool, bv. bij de VRT, op de sites van kranten (bv. De Standaard), en bij tijdschriften als DataNews. Duidelijk een hot item; vandaag iets minder, maar nog steeds warm. Uiteenlopende aspecten werden belicht, in het kort en het lang, smal en breed, in alle kleuren en geuren, met feiten en opinies, gewoon te veel om op te reageren. Het stof is nog niet helemáál neergedwarreld, maar hier en daar verschijnen wel al overzichtsartikelen, die een efficiënte aanpak bieden in geval van overaanbod. Zoals dat van Dominique Deckmyn, redacteur van De Technocraat, de DS-rubriek die doorgaans interessante informatie geeft. Ik waag de sprong.


Proloog

Deze proloog is, zoals allicht vele andere, ontstaan na de verwerking van het artikel. Ik merkte dat her en der stukjes uitleg nodig waren die neerkwamen op hetzelfde thema: AI is een containerbegrip; de ene 'AI' is de andere niet; vlag-en-ladingprobleem. Wikipedia bevat enkele goede pagina's, maar het zijn er meerdere, en eigenlijk moet je ze allemaal gelezen hebben om een goed beeld te krijgen van het onderwerp artificiële intelligentie. Anderzijds zijn niet alle paragrafen even relevant, dus niet alle leestijd is goed besteed. Mijn voorstel: lees eerst de bespreking hieronder, en als je dan nog meer wil weten, kijk dan eens bij Kunstmatige intelligentie, Algoritme, Genetisch algoritme, Zoekalgoritme, Expertsysteem, of Intelligentie.

Een aspect dat altijd ergens op de achtergrond waart is dit: kan intelligentie artificieel zijn, of is dat een bij uitstek menselijke eigenschap? Dat hangt uiteraard af van de definitie van intelligentie, maar 'de' definitie bestaat niet. Bij gebrek aan een wetenschappelijke basis bestaan hier geen feiten over, wel opinies. Maar dit bepaalt wel veel van de discussie, zeker als je informeert over de tien grote gevaren van AI. Enkele van die vermeende gevaren (bv. hallucineren en superintelligentie) gelden enkel voor neurale netwerken, en niet voor algoritmen. Een andere vergissing is dat een systeem, zelfs een neuraal netwerk, een vooroordeel kan hebben, en daar zitten meteen weer twee onderliggende aspecten aan: (1) een machine doet datgene waarvoor ze gemaakt is, en heeft geen oordeel, en dus ook geen vooroordeel, en (2) data die dienen als systeemingang of trainingsbasis zijn wat ze zijn; als die aanleiding geven tot een foutief resultaat zit er een fout in die data, en niet een vooroordeel. Ook naar gebrekkige aspectscheidingen is het dus niet lang zoeken.

Het is wel opvallend dat AI-systemen dikwijls worden beschreven alsof ze menselijke kenmerken hebben, bv. ze liegen, of ze zijn bevooroordeeld (waarbij 'bias' nog zo'n containerbegrip is dat veel divergentie van opinies veroorzaakt). Die vermenselijkende benadering verhult dat AI-systemen maar systemen zijn, door de mens opgezet, en dat daar fouten kunnen in zitten. Daardoor gaat er meer aandacht naar discussies over de gevaren van AI dan naar het wegwerken van de fouten. Het lijkt erop dat de techsector dit manco zelf ondersteunt, om de verantwoordelijkheid voor de gevaren van AI te ontlopen, en/of economisch gewin veilig te stellen. Zie achteraan: AI is zelfs niet het probleem.


Tien grote gevaren van AI (en wat we eraan kunnen doen)

Door Dominique Deckmyn, De Standaard, 30-05-2023

Precies zes maanden geleden verscheen ChatGPT. Sindsdien klinken steeds meer alarmsignalen (dat geloof ik) over generatieve AI-systemen: ze liegen, vervalsen en plagiëren, terwijl ze almaar meer energie opslorpen en – wie weet – hun greep naar de totale macht beramen (geloof ik niks van, maar totale chaos lijkt mij niet uitgesloten). Wat zijn de échte risico's? Wij vroegen het aan de specialisten. Zie ook het originele artikel. Mijn fileermes is geslepen.

1. Ze vertonen bias

Wat? Voor de meeste AI-systemen is een 'dokter' bijna automatisch een witte man en 'objectieve' algoritmes voor rekrutering blijken vaak even bevooroordeeld als de data waar ze op zijn getraind. Opgelet hier; dit begint al slecht. (1) De hoofdtitel vermeldt ChatGPT en heeft het over generatieve AI-systemen. Elk AI-systeem genereert een resultaat, dus in feite zijn ze allemaal generatief (vlag-en-ladingprobleem), maar het klopt dat ChatGPT en co. specifiek worden beschreven als "generatieve AI-systemen". In deze paragraaf gaat het ineens over algoritmen, dit zijn methoden om, vanuit een bepaalde beginsituatie, in een eindig aantal stappen een specifiek probleem op te lossen. Of een algoritme kan beschouwd worden als een AI-systeem, daar kan je over discuteren, maar algoritmen en ChatGPT hebben weinig gemeen. Tegelijk gaat het over trainingsdata, en dan zitten we wél weer bij AI-systemen, maar niet bij algoritmen (nog een vlag-en-ladingprobleem). (2) Een algoritme of een AI-systeem voert alleen instructies uit, en kent geen vooroordelen. Het respecteert altijd de ingangsdata en/of de data waarop het is getraind. Hetzelfde geldt voor data; die kennen geen oordeel, en dus ook geen vooroordeel. (3) Een AI-systeem is een dood systeem als een ander. Door de term 'bevooroordeeld' te gebruiken wordt gesuggereerd dat een AI-systeem een ethisch onaanvaardbare eigenschap kan hebben. (2+3) Eigenlijk moest er dus staan "algoritmes voor rekrutering reflecteren de data waarop ze zijn getraind"; dat principe is duidelijk voor iedereen die een beetje weet hoe een AI-systeem functioneert. Dat de auteur zich in de eerste zin al vergaloppeert vind ik verbazend en verontrustend. (4) Je kan 'bias' beschouwen als een synoniem voor 'vooroordeel', maar niet omgekeerd. 'Bias' heeft immers verschillende vormen. In de psychologie betreft het doorgaans cognitieve bias (vooroordelen), in de statistiek gaat het om systematische fouten. Geen van beide is hier van toepassing. 'Bias' is in deze context een foutieve term. Deze pagina beschrijft nog meer soorten bias.

Het is het AI-probleem waar mogelijk al het meest over is gepraat en geschreven. 'En het blijft een van de grote uitdagingen', zegt Steven Latré, hoofd AI bij Imec (voor een technologiebedrijf als Imec is ellende met technologie uiteraard een uitdaging, en meestal ook een inkomstenbron). 'Overal in data zit bias (neen, fouten) en het is heel moeilijk die eruit te filteren (omdat niemand ze wil zien). Maar er wordt gewerkt aan wiskundige technieken om dat aan te pakken. Hier worden wel duizenden papers per jaar over geschreven.' Ongelooflijk. Fouten worden her en der gemaakt, en ze blijven zitten omdat niemand het de moeite waard vindt om ze te verwijderen. Om dat te verhullen worden ze 'bias' genoemd, en worden wiskundige technieken bedacht (of alvast veel papers geschreven) om de bias te verwijderen (ik mag hopen dat daar geen AI-systemen bij gebruikt worden) (deze techniek doet mij ook weer sterk denken aan inspanningen om CO2 te reduceren, ten nadele van aandacht voor warmteproductie). Hier speelt echter weer een gebrekkige aspectscheiding. (1) Fouten in IT-systemen veroorzaken fouten in data. Data zijn de data die ze zijn, en vormen input voor een AI-systeem, maar het AI-systeem is niet verantwoordelijk voor fouten in de data. (2) Cognitieve bias kan bestaan in de selectie door mensen van trainingsdata voor een AI-systeem (waarbij ik toegepaste gemakzucht beschouw als een selectiemethode, gemakshalve ;-), maar niet in de data, en niet in het AI-systeem zelf. Zie ook Bias is geen AI-probleem (besproken achteraan).

Ook wetgevend wordt eraan gewerkt, schrijven Thomas Gils, Jan De Bruyne en Wannes Ooms van Citip (KU Leuven). 'In de door de Europese Commissie voorgestelde AI Act worden een aantal bepalingen opgenomen om bias te vermijden (bijwerking 15-06-2023: het Europees Parlement heeft een AI Act goedgekeurd; nu de lidstaten nog). Datareeksen voor training, validatie en tests moeten relevant, representatief, foutenvrij (ach zo?) en volledig zijn (ook dat nog).' De wetgeving heeft gemakkelijk declareren dat data foutvrij moeten zijn als zich daar niemand om bekommert. En wat is relevant? En volledig? Ik vrees dat de eigenschappen "relevant, representatief, foutenvrij en volledig" nog geen afwezigheid van bias garanderen bij de selectie. Bovendien zitten in de meeste data fouten (er is immers, jammer genoeg, geen ICT Act die bepaalt dat dat niet mag), en AI-experten kunnen daar niets meer aan veranderen, maar hebben wel data nodig, dus eisen stellen in een AI Act is dweilen met de kraan open.

Het blijft een van de grootste pijnpunten, maar er is vooruitgang. We zijn ermee bezig. Breng meer dweilen!

2. Ze hallucineren

Wat? LLM's (Large Language Models) schrijven een statistisch waarschijnlijk (inderdaad), plausibel (gemiddeld ja, gezien de statistiek) antwoord op je vraag dat totaal verzonnen (lijkt mij onwaarschijnlijk) namen, jaartallen of gebeurtenissen kan (!) bevatten. Dat een computer iets verzint kan er bij mij niet in; een computer stamt niet af van apen. Geen output zonder input, een procedure, sturing en middelen, dat is simpel procesbeheer. Maar als één van die elementen een fout bevat is de output uiteraard onbetrouwbaar. Informatieprocessen kunnen onzin produceren, maar die komt wel altijd ergens vandaan, hetzij uit de input, hetzij door een foutieve procedure. In het geval van AI-systemen is de procedure eerder vaag, maar ze blijft wel een combinatie van wiskundige bewerkingen, en die kunnen geen nieuwe dingen uitvinden. Het gebruik van de term 'hallucineren' is begrijpelijk, omwille van de overeenkomst met menselijke hallucinaties ("er komt onzin uit", bij mensen overigens ook het gevolg van een verstoord verwerkingsproces), maar volgens mij niet OK, omdat het AI-systemen vermenselijkt. Een AI-systeem dat onzin produceert krijgt de verkeerde input of gebruikt een foutieve procedure; vermenselijking lijkt wel een middel om dat niet te moeten zien, en de oplosbare technische ellende te kunnen negeren. Anders gezegd: makers van AI-systemen zullen die graag helpen vermenselijken.

"Dit is relatief dringend, als ik zie dat iedereen tegenwoordig met deze applicaties aan de slag wil binnen de eigen organisatie, inclusief overheden", zegt onderzoekster Nathalie Smuha (KUL). "Dit is een grootschalig experiment (het maakt natuurlijk wel een groot verschil of je dat erbij vermeldt of niet) en wij zijn, geheel onvrijwillig, de proefkonijnen (en AI is de lamp in het bos)." Is dat een probleem? "Ja, als je voor 100 procent op die technologie gaat vertrouwen", zegt Steven Latré. Zo lang je generatieve AI als een werktuig beschouwt waarvan je het resultaat altijd zelf grondig controleert, hoeft er geen probleem te zijn, vindt hij. Weer een basale fout, nl. een systeem van het zevende knoopsgat. (1) Controleren is vervelend, dus dat wordt al eens overgeslagen (dan veronderstellen we nog dat er iets te controleren valt). (2) Als dat systeem slecht werkt ga je het niet blijven gebruiken, en als het goed lijkt te werken ga je het niet blijven controleren. En op langere termijn moeten de hallucinaties oplosbaar zijn. "Maar dit is een veel nieuwer probleem dan die bias." Dat het hallucinatieprobleem zo koppig blijkt, heeft te maken met een ander, dieper probleem met LLM's: niemand begrijpt precies hoe ze werken, ook niet de makers ervan. Onzin. In feite is het poepsimpel. Zorg om te beginnen dat er geen fouten in de data zitten (zie hoger). En als er dan nog onzin uit het AI-systeem komt, dan zit er een fout in het systeem zelf. Niks hallucinatie. Dat het hoofd AI bij Imec zoiets verklaart is foute boel. Of ook een soort hallucinatie… Hoe ver is de maatschappij weggezakt in het technologisch moeras, dat ze toelaat dat systemen die makers zelf beweren niet te kennen, onzin mogen produceren? In een maatschappelijke context is dit ongehoord, in het managerialisme is het oorbaar.

Een groot en onopgelost probleem, waardoor LLM's vandaag ongeschikt zijn voor heel wat taken en altijd aandachtige supervisie vereisen. Gaan bedrijven daarvoor AI-experten moeten aantrekken? Via rekruteringsbureaus die daarvoor AI inzetten? Waar zijn we mee bezig? Het zwarte gat van de ICT wordt almaar groter…

3. Ze nemen je job af

Wat? Als generatieve AI een graficus, programmeur of copywriter 'productiever' maakt, dan heb je voor dezelfde hoeveelheid werk minder grafici, programmeurs of copywriters nodig. Nog een probleempje met aspectscheiding: over welke soort AI hebben we het? De zogenaamde generatieve AI genereert tekst, afbeeldingen en andere media op basis van aanwijzingen. Punt 1 hierboven geldt voor alle AI-systemen; punt 2 gaat specifiek over LLM's of Large Language Models, die allicht ook in dit punt 3 bedoeld worden. Als we het hebben over "tien grote gevaren" is het misschien wel aangewezen om telkens de bedoelde soort AI-systeem duidelijk te vermelden.

"Ik zie generatieve AI vooral als een heel goed hulpmiddel om bepaalde taken sneller uit te voeren", zegt Steven Latré. Juist het voorgaande probleem – de hallucinaties – betekent dat ze (nog) geen hele jobs kunnen overnemen, meent hij. Een veelgehoorde oneliner bij voorstanders van de technologie: "AI zal je job niet afpakken, maar iemand die goed met AI kan werken misschien wel". Dus iedereen moet AI gaan studeren? Doet mij denken aan de proliferatie van MBA-diploma's, waardoor ze minder en minder waarde hebben, en standaarden worden verlaagd om ook minder scherpe geesten een kans te bieden. (Tussen haakjes: ik ben benieuwd of een AI-systeem ooit een dergelijke vergelijking zal maken…)

Het cliché is dat generatieve AI "saaie routinetaken" zal overnemen of verlichten. "Dat is met een korrel zout te nemen (korrel zout? > basale fouten!)", zegt Willem Vansina, verantwoordelijke arbeidsmarktinformatie bij de VDAB. "Ook eerdere automatisering heeft werk doen verdwijnen dat sommige werknemers het liefst deden of taken weggenomen die op zijn minst mentale rustpunten waren binnen een job". Da's weer een heel ander punt, maar wel interessant. Als je rustpunten zoals saaie routinetaken wegneemt, dan neemt de stress uiteraard toe. Wat voor de VDAB lijkt te impliceren dat die saaie routinetaken niet noodzakelijk moeten verdwijnen (zou Deckmyn dit zo wel begrepen hebben?). Hier heb je uiteraard weer de strijd tussen de sociale visie die werkstress wil beperken, en het managerialisme dat liever geen werknemer betaalt voor iets dat in een handomdraai te automatiseren valt. Momenteel is managerialisme aan de winnende hand.

Sam Altman, CEO van OpenAI, maakt er geen geheim van: "GPT-4 (of een andere LLM) zal sommige jobs volledig weg-automatiseren, denk ik", vertelde hij aan de Amerikaanse Senaat. "Maar het zal nieuwe jobs creëren die beter zijn (ja, maar voor wie alweer?)." Nathalie Smuha countert die idee: "De personen die hun job verliezen zijn niet noodzakelijk de mensen die de nieuw gecreëerde jobs kunnen opnemen" (voilà, zelfs eerder "noodzakelijk niet"; zie ook het MBA-verhaal). Er komt dus een sociale factuur aan. Hoog tijd dat milieukosten geïnternaliseerd worden bij producenten, en sociale stresskosten bij ICT (ja, ik negeer enkele aspecten, ik weet het, maar toch).

"Wat zeker lijkt op basis van de ervaring van de afgelopen decennia, is dat enkelen schatrijk zullen worden van deze technologie", zegt Willem Vansina. De winsten eerlijk verdelen wordt een moeilijke opdracht. Zal zelfs niet gebeuren. Gebeurt immers nooit. Wel misschien?

Er is werk aan de winkel om de sociale gevolgen op te vangen. Niemand lijkt te denken aan de simpelste oplossing, nl. generatieve AI schrappen. Zoals niemand eraan leek te denken om de ongebreidelde verspreiding van de GSM tegen te houden. Rare kronkel? Dacht het niet, als je ziet welke ellende de GSM veroorzaakt.

Ik wil hier wel aan toevoegen dat AI veel meer is dan LLM's. Er worden naar verluidt al AI-systemen nuttig gebruikt om technische problemen op te lossen die met een algoritme niet meer te benaderen zijn, o.m. bij medische toepassingen, bv. kankerdiagnose, maar online is daar nauwelijks iets over te vinden. De website van UZ Leuven toont een pagina waaruit echter blijkt dat zij de term "artificiële intelligentie" ook gebruiken voor systemen die geen gebruik maken van neurale netwerken of machinaal leren. UZ Leuven vermeldt zelfs een project dat alleen maar "big data" verzamelt over hartaandoeningen, met behulp van "slimme draagbare sensoren", waaruit in een later stadium "met behulp van artificiële intelligentie nieuwe verbanden en inzichten kunnen (?) gevonden worden". AI-washing dus. Op een pagina over de diagnose van longaandoeningen is sprake van "algoritmes op basis van machine learning". Daar snap ik geen bal van. Ofwel gebruik je een algoritme, ofwel machinaal leren. Zou ik denken. Vlag-en-ladingproblemen dus. Als dergelijke pagina's al niet meer geschreven worden door kenners, kan de discussie natuurlijk gemakkelijk ontsporen. En dat "artificiële intelligentie" noemen is al helemaal amateuristisch. Een geprogrammeerd algoritme is misschien wel een artefact, maar de intelligentie van een algoritme in software is niet artificieel, maar menselijk. Ook een pagina van Siemens over het gebruik van artificiële intelligentie in de gezondheidszorg getuigt niet bepaald van een professionele medische visie, maar bevat eerder marketing. Ook AI-washing dus. Aan de UGent gaat het vooral over onderzoek.

4. Ze pikken je gegevens en je creaties

Wat? AI-modellen worden getraind op duizelingwekkende hoeveelheden tekst en beelden, meestal zomaar van het internet gehaald. Daar kunnen uw privégegevens of uw auteursrechtelijk beschermd werk tussen zitten.

Mogen AI-systemen worden getraind met beelden en teksten die op het internet staan, is daar toestemming voor nodig en moet daarvoor worden betaald? Dat moet nog worden uitgemaakt. Maar die systemen draaien al…? Dat worden dus vijgen na Pasen. "Een belangrijk maar oplosbaar probleem", zeggen Thomas Gils, Jan De Bruyne en Wannes Ooms van Citip. Zodra rechters een aantal knopen doorhakken, bijvoorbeeld in een aantal Europese rechtszaken. Zoals die tussen beelddatabank Getty Images, die de makers van de Stable Diffusion beeldgenerator hebben aangeklaagd omdat die software Getty-foto's zou hebben gebruikt om op te trainen. Behalve dat je online niet altijd kan vinden wat je zoekt, heb je ook nog het probleem dat wat daar eigenlijk niet zou moeten zijn niet meer weg geraakt. Dus aan maatregelen na de feiten hebben we weinig.

De huidige wetgeving rond auteursrecht houdt ook geen rekening met het feit dat technologie nu, in enkele seconden en zo goed als gratis, variaties en combinaties (die evengoed aan de eigendomswetgeving zijn onderworpen, als ik mij niet vergis) kan creëren op beelden en teksten.

Transparantie over de trainingsdata is hier de noodzakelijke eerste stap, zegt Steven Latré. Maar de transparantie die de voorgestelde Europese AI Act van de ontwikkelaars eist, is volgens hem bijna onhaalbaar (ja, da's ook een oplossing): de hoeveelheid data waarop die systemen nu worden getraind, is simpelweg te immens. En het algoritme is simpelweg te complex; je bent weinig met zeven pagina's transparantiedata voor zeven regels tekst. Techsectorlobbyisten zullen ijveren voor een ambitieuze Europese AI Act die niet haalbaar is, en dus niets belemmert.

Ook op het vlak van privacy duiken problemen op, al lijken die wel te ondervangen met de bestaande GDPR-privacyregels (dat is te hopen; anders zit daar ook een gat in). OpenAI zag zich, vanwege de GDPR, al gedwongen om gebruikers toe te laten de gegevens te wissen die ze in het ChatGPT prompt-venster hebben getikt (die managerialisten houden ook veel te veel bij; datacenters warmen de aarde op).

Er is wetgeving rond privacy en auteursrecht, maar rechters moeten uitmaken hoe die moet worden toegepast op deze nieuwe realiteit. Systeem van het zevende knoopsgat. Alsof rechters nog niet genoeg te doen hebben. Lobbyisten zullen het graag horen.

5. Ze verspreiden desinformatie

Wat? Nepfoto's en nepteksten kunnen massaal worden verspreid door nepaccounts op sociale media. Ik zie niet dadelijk een verband met AI.

Een (waarschijnlijk) met AI gemaakte 'foto' van een explosie bij het Pentagon (hier wel (waarschijnlijk)), die op Twitter de ronde deed, veroorzaakte vorige week (heel even) een dip in de beurs. En is dus mogelijk verspreid door individuen die rijker worden van een dip in de beurs. Nathalie Smuha vreest voor de precisie en schaal waarmee desinformatie nu kan worden verspreid. Ik ook.

Er ligt al heel wat wetgeving op (de ontwerp-?) tafel. De vorig jaar goedgekeurde Digital Services Act legt de lat voor moderatie op sociale netwerken hoger. Die moderatie steunt zelf overigens steeds meer op AI (dus AI kan tegelijk desinformatie verspreiden en bestrijden; voer voor filosofen?). "Het belangrijkste is: weten dat wat op het internet staat, verkeerd kan zijn" (OK, dat geldt voor alle media), zegt Steven Latré. "Technologisch kan je ook iets doen (met digitalisering, misschien zelfs AI), maar het zal altijd een kat-en-muis spel zijn om valse beelden te detecteren." Technologie is de kat; wij zijn de muizen.

Wetgeving komt eraan (echt?), detectie-systemen kunnen (??) helpen (maar doen het (nog) niet?), maar educatie is momenteel de beste aanpak (huh? welke educatie? uitleggen dat AI voordelen heeft?).

6. Misdadigers zullen ze misbruiken

Wat? Generatieve AI is een gedroomd instrument voor hackers en oplichters.

De tekst van phishing-emails klinkt veel geloofwaardiger dan twee à drie jaar geleden, de eerste nepgijzelingen waarbij de vervalste stem van een familielid werd gebruikt, zijn al een feit. Geautomatiseerde AI-hackers zullen geduldig de kwetsbaarheden van elk computersysteem lokaliseren. En oplichters zijn gewaarschuwd: ordinaire oplichters zullen vervangen worden door oplichters die AI gebruiken.

Elke technologische doorbraak – de elektriciteit, de ontploffingsmotor, de CRISPR gentechnologie – opent de deur voor misbruik. Dat geldt voor alles, niet alleen technologie, dus dat is geen excuus. Voor Steven Latré kan er geen twijfel over bestaan dat de voordelen van generatieve AI veel zwaarder wegen dan de nadelen bij misbruik. Hij is AI-adept. Waarom worden AI-adepten geïnterviewd voor een kritisch artikel over AI? Hoe dan ook, de kat is uit de zak (en blazen zal ze; het idee van de kat in de zak vind ik wel gepast hier). Open source taalmodellen als Bloom en Llama, die GPT-4 in kracht benaderen, zijn vrij beschikbaar. Maar ook beveiligingsbedrijven zetten AI in om de gevaren weer af te weren. Gevaren die ontstaan uit AI? Zou AI niet slimmer zijn…?? Grapje, tuurlijk niet, AI is oerdom.

Politiediensten en IT-beveiligingsmensen mogen zich schrap zetten.

7. Amerika en China domineren

Wat? Europa miste de internettrein en dreigt nu ook de AI-raket te missen. Naar de maan ermee! Of bedoelen ze iets anders? FOMO misschien (zie ook Van der Stadt in DataNews). En hoezo miste Europa de internettrein? Dat was 1999, Dominique, daar is niets van overgebleven; trouwens, vier jaar achterstand is ook vier jaar minder kinderziekten.

We hebben nog geen eigen ChatGPT, maar met de AI Act wel al een eindeloze waslijst (voorgestelde, yep) regeltjes voor onze AI-bedrijven. We laten de Amerikaanse reuzen over ons heen marcheren, klinkt de kritiek. Steven Latré: "Zijn wij het kneusje van de AI? Absoluut niet! Ik denk dat Europa, naast de VS en China, juist een interessante derde weg aan het vinden is, met sterke aandacht voor ethische AI. Een duurzame AI (wordt wel moeilijk) zal de combinatie van de verschillende benaderingen vereisen." De Amerikaanse reuzen zullen onze regels moeten volgen als ze de lucratieve Europese markt willen exploiteren. Voila; zoals GDPR.

Bij gebrek aan eigen modellen van dezelfde klasse als GPT-4 of Palm 2, moet Europa wel kiezen: AI-oplossingen bouwen boven op die Amerikaanse modellen, ofwel gebruikmaken van open source AI-modellen zoals Bloom (ofwel geen…?). Helaas vrezen sommigen dat de strenge regels in de AI Act die open source alternatieven juist in de weg staan. Vermoedelijk met goede redenen.

Internationale techreuzen in de pas laten lopen is moeilijk, maar niet onmogelijk.

8. Ze vernielen de planeet

Wat? De steeds grotere AI-modellen vergen een gigantische hoeveelheid energie, vooral in de trainingsfase.

Elke nieuwe generatie van de grote taalmodellen vereist exponentieel meer trainingsdata en computerkracht.
Tenminste, zo was het tot vorig jaar – intussen houden de koplopers, OpenAI en Google, deze gegevens angstvallig geheim. Het trainen van GPT-3, de voorganger van GPT-4, eiste 1.287 gigawattuur, het jaarlijks energieverbruik van meer dan honderd gemiddelde gezinnen. Het jaarverbruik voor een gemiddeld gezin volgens Luminus: 3000 kWh aan elektriciteit en 13000 kWh aan gas, samen 16000 kWh, of 16 MWh, of 0.016 GWh. Dan is 1287 GWh goed voor 1287 / 0.016 = 80437 gezinnen. Ofwel klopt die 1287 GWh niet, ofwel die 100 gezinnen (100000 komt meer in de buurt). Ik vond online geen verbruik van een GPT, wel meerdere keren de vergelijking met 500 ton CO2, en één keer die met 1000 auto's die 1000 km rijden; aan 130 g/km CO2 geeft dat 1000 x 1000 x 0.13 = 130000 kg = 130 ton (groot verschil, maar wel dezelfde grootte-orde; die 500 is mogelijk berekend op SUV's). Die 1000 (diesel-)auto's verbruiken samen zo'n 1000 (#auto's) x 1000 km x 5 l/100km = 50000 l = 42000 kg. Aan 12 kWh/kg levert dat 42000 x 12 = 504000 kWh = 0.5 GWh. Lijkt in niets op 1287 GWh. Geen idee waar de fout zit, sorry. Tips om AI zuiniger te maken vind je overigens vlot (en overal dezelfde :-), maar het energieverbruik van de trainingsfase van GPT-4 e.d. is blijkbaar een goed bewaard geheim. Misschien heeft Deckmyn's bron wel met opzet verwarring willen zaaien.

De chipindustrie werkt wel aan zuinigere processoren en aan processoren die zijn geoptimaliseerd voor AI. Van het nieuwste AI-model van Google, Palm2, weten we niet hoeveel energie het kostte om het te trainen, maar volgens Google zal een kleine versie van het model kunnen draaien op een smartphone (niet de training, wel de toepassing). 'Dit is oplosbaar, ook op langere termijn', zegt Steven Latré. Zijn eigen organisatie, Imec, verricht trouwens baanbrekend werk op het vlak van energiezuinige AI-chips. De geldgenererende uitdaging (ja, de spelling klopt).

De harde cijfers ontbreken om dit probleem in te schatten, transparantie is nodig. Vind ik toch wel sterk dat die er niet is. Anderzijds is het voor de ICT-sector ook weer niet abnormaal dat transparantie ontbreekt, omdat die er nog zelden of nooit geweest is.

9. Ze brengen kwetsbare mensen in gevaar

Wat? Een Belgische familievader maakte dit jaar een einde aan zijn eigen leven na langdurige conversaties met een chatbot van het bedrijfje Chai. Origineel artikel in La Libre Belgique, vermelding in Het Nieuwsblad, interessante analyse in Knack. Het is niet altijd wat het lijkt, en de media volgen niet zomaar.

De Bing chatbot van Microsoft kende in zijn eerste weken opvallende ontsporingen, zo begon de chatbot schijnbaar te flirten met een journalist van The New York Times. Maar Microsoft kon dat probleem snel bedwingen (met chemische castratie?) en sindsdien zijn er nog weinig meldingen van uit de hand lopende conversaties met de chatbots van de grote Amerikaanse leveranciers.

Een groep wetenschappers waaronder Nathalie Smuha (KU Leuven) en Mieke De Ketelaere (Vlerick; zie ook Mens versus machine) riep in een open brief op om chatbots in de AI Act te beschouwen als 'hoogrisico'-toepassingen, die streng worden gereguleerd. Dat is niet gebeurd, maar het Europees Parlement heeft voor chatbots wel een aparte, bijna even streng gereguleerde categorie in het leven geroepen. In de open brief wordt ook gepleit voor sensibilisering. De open brief vind je hier; vooral zelf lezen. Hij bevat o.m. deze meer dan terechte stelling: "de makers en aanbieders van chatbots zouden hun morele en juridische verantwoordelijkheid niet mogen ontlopen door te stellen dat ze geen idee hebben hoe hun systeem zal reageren". Dat de dood van een man in deze open brief een relevante rol speelt (zie ook de analyse van Knack) is op zijn minst jammer, omdat het meer algemene gevaar van foutief informeren, o.m. door chatbots, daardoor onder de radar blijft.

De grote spelers hebben de ergste problemen aangepakt, maar heel wat bedrijfjes vliegen onder de radar.

… maar het échte probleem wordt niet aangepakt. Regulering verandert niets aan de kwaliteit van de vele databanken die data aanleveren waarop AI-systemen worden getraind. Nog niet vernoemd, maar al de hele tijd op de achtergrond: garbage in, garbage out. Sleutelen aan AI-systemen om te vermijden dat ze vooroordelen vertonen, of godbetert hallucineren, is alleen maar symptoombestrijding, en ontkenning van foutsequenties. Correcte trainingsdata, gepast geselecteerd (om 'bias' te vermijden), en een feilloos neuraal netwerk, dat is wat nodig is voor een betrouwbaar AI-systeem. Maar intellectuele luiheid belemmert foutcorrecties, en toxische positiviteit richt de aandacht op "innovatieve" ingrepen die problemen zouden moeten oplossen. Maskeren wel ja, oplossen nooit.

10. Superintelligentie bedreigt de hele mensheid

Wat? AI wordt slimmer dan de mens en daardoor totaal oncontroleerbaar. Ho maar.

OpenAI heeft uitdrukkelijk als doel om op termijn Artificial General Intelligence (AGI) te ontwikkelen, intelligentie die de menselijke op elk vlak evenaart en (dus) uiteindelijk ook overtreft. Merkwaardig genoeg is Sam Altman van OpenAI een van de mensen die het hardst waarschuwen voor de gevaren van superintelligentie. Hij stelt de oprichting voor van een internationaal agentschap voor superintelligentie vergelijkbaar met de IAEA, die toeziet op nucleaire veiligheid. Vermits er sprake is van het overtreffen van menselijke intelligentie wordt met superintelligentie blijkbaar artificiële intelligentie bedoeld. Volgende vraag: wat is intelligentie? De eerste paragraaf van deze pagina geeft al dadelijk een goed beeld: "intelligentie is een mentale eigenschap met veel verschillende functies zoals de mogelijkheid overeenkomsten en verschillen op te merken in waarnemingen, zich in de ruimte te oriënteren, te redeneren, plannen te maken, problemen te doorgronden en op te lossen, in abstracties te denken, ideeën en taal te begrijpen en te produceren, informatie op te slaan in het geheugen en daar weer uit op te halen en te leren van ervaringen". Voor elk van die aspecten kan ik mij een AI-systeem voorstellen (of een poging daartoe), maar alleen mensen kunnen alles afvinken.

Sam Altman waarschuwt voor de gevaren van superintelligentie, niet om zijn werkterrein aan te vallen, maar net om het te beschermen. Als we de AI-industrie bezig laten zal het niet lang duren vooraleer ze aan banden gelegd wordt, omdat er te veel miserie door ontstaat. Het initiatief van Altman is vooral bedoeld om te laten uitschijnen dat de nadelen gekend en onder controle zijn, en om kritische geesten de mond te snoeren. Zoals CO2 afleidt van warmteproductie.

Online vind je overigens gemakkelijk informatie over artificiële superintelligentie of ASI. Hier een artikel dat enkele beweringen doet met een hoog esoterisch gehalte, gesneden koek voor massamedia (vertaald):
Kunstmatige superintelligentie (ASI) is een vorm van AI die de menselijke intelligentie kan overtreffen door cognitieve vaardigheden te manifesteren en zelf denkvermogen te ontwikkelen. Dat bedoel ik met esoterisch.
ASI wordt beschouwd als de meest geavanceerde, krachtige en intelligente vorm van AI die de intelligentie van sommige van de knapste koppen, zoals Albert Einstein, overstijgt. De wetenschap mag beginnen bibberen. God ook.
Op dit moment is superintelligentie eerder een theoretische mogelijkheid dan een praktische realiteit (interessant!), omdat het grootste deel van de huidige ontwikkelingen in computerwetenschap en AI neigen naar kunstmatige smalle intelligentie (ANI)". Hier wordt gesuggereerd dat ASI kan gerealiseerd worden mits meer ontwikkelingen.
Een artikel als dit, van een AI researcher dan nog, ondersteunt het idee dat vroeg of laat AI de boel gaat overnemen. En als dat in mensen hun hoofd geraakt, probeer het er dan maar eens uit te krijgen. Ik denk niet dat die superintelligentie er ooit komt, maar eer dat duidelijk wordt kan er wel veel onzekerheid gecreëerd worden. Stel je voor dat er ontwikkelingen gebeuren in die richting, gebaseerd op de huidige systemen, met alle ingebakken problemen als fouten in trainingsdata en vooroordelen bij de selectie… Dat zijn foutsequenties die we echt wel kunnen missen. De kans is reëel dat de techsector of andere grootmachten zullen blijven proberen artificiële superintelligentie te ontwikkelen (zelfs als dat aan banden wordt gelegd), met als gevolg dat AI-systemen veel schade berokkenen aan het milieu, en nog meer aan de maatschappij, door ontwrichtende resultaten. En in het uiterste geval krijgen we inderdaad totale chaos. Als ik zie hoe grote verkiezingen (Trump, Brexit, Brazilië…) tegenwoordig rond 50/50 eindigen  (kenmerk van willekeur) word ik al ongerust.

Van de drie 'godfathers van de AI', de grondleggers van de huidige technologie, zijn er twee, Geoffrey Hinton en Yoshua Bengio, die zich zorgen maken over superintelligentie en pleiten voor voorzichtigheid, al vindt geen van beide dat gevaar imminent (allicht omwille van momenteel nog te hoog energieverbruik en te veel onzin). De derde godfather, Yann LeCun, lacht die vrees weg. 'Veel mensen zijn slimmer dan hun baas', tweette hij onlangs (da's iets heel anders). 'AI-systemen worden misschien slimmer dan jij, maar jij bent nog altijd hun baas.' Ook Twitter mogen ze voor mijn part afschaffen. Of hallucinaties reguleren…  Als baas sta je nergens als je ondergeschikte onzin uitkraamt, zeker als het gaat om een systeem dat je niet eens kan bijsturen.

Nathalie Smuha: 'Ik zie dit niet als een dringend probleem of, alleszins, ik zie al de andere problemen als veel dringender omdat ze nu al mensenlevens schaden. Het zou fijn zijn als de mensen die moord en brand schreeuwen om het AGI-risico, eerst eens de andere problemen aanpakken die ze mee veroorzaken' (ze bedoelt mensen als Hinton en Bengio). Maar, zegt Smuha: 'Ik denk niet dat het te vroeg is om discussies te hebben over welke keuzes we als samenleving rond deze technologie willen maken.' Het is ook nooit te vroeg om basale fouten uit de discussies te halen.

Er zijn dringendere zorgen dan superintelligentie. Niet echt een geruststelling.


Epiloog

En wat we eraan kunnen doen? Ik ben geneigd te zeggen "ik zou het ook niet weten, Dominique". Maar daarmee komen we niet verder. Eens kijken wat het artikel uiteindelijk zegt.

  1. Ze vertonen bias > We zijn ermee bezig.
  2. Ze hallucineren > Blijven superviseren.
  3. Ze nemen je job af > Sociale gevolgen opvangen.
  4. Ze pikken je gegevens en je creaties > Rechters laten beslissen.
  5. Ze verspreiden desinformatie > Wetgeving en detectiesystemen, maar vooral educatie.
  6. Misdadigers zullen ze gebruiken > Rekenen op politiediensten en IT-beveiliging.
  7. Amerika en China domineren > IT-reuzen in de pas laten lopen.
  8. Ze vernielen de planeet > Meer transparantie is nodig.
  9. Ze brengen kwetsbare mensen in gevaar > Reguleren.
  10. Superintelligentie bedreigt de hele mensheid > Niets.

Eén en ander is weer niet geruststellend. Het lijkt mij wel duidelijk dat de techsector AI-systemen wil pushen, deels om eraan te verdienen, deels gewoon uit managerialisme (dringend aan te pakken). Maar het is telkens wel de maatschappij die moet opdraaien voor de negatieve gevolgen; ga maar na in de lijst hierboven. Misschien is het een goed idee om dat eens om te keren, en de techsector verantwoordelijk te stellen voor alle veroorzaakte ellende. Maar als de politiek rekent op de techsector om het klimaatprobleem op te lossen (ten onrechte, overigens) is dat niet bepaald evident. Op die manier helpt de wereld zichzelf om zeep. Het meest absurde is misschien nog dat op AI zou gerekend worden om de negatieve gevolgen van AI op te sporen.

Wat we eraan kunnen doen? Ik zou het ook niet weten, Dominique.


Enkele aspecten uitgeplozen

Ik schrijf 'uitgeplozen' in plaats van uitgepluisd, om een beetje streektaal te gebruiken, maar dan blijkt 'uitgeplozen' correct te zijn?! Omdat 'uitpluizen' een sterk werkwoord is, en bijgevolg de stamklinker wijzigt in de verleden tijd (ik ploos uit) en het voltooid deelwoord (ik ben uitgeplozen :-). En waarom wijzigt die klinker dan? Wel, omdat het een sterk werkwoord is… Snap je? Uitpluizen is een sterk werkwoord omdat de klinker verandert, en de klinker verandert omdat het een sterk werkwoord is. Systeem van het zevende knoopsgat: als je verplicht bent ongerijmdheden in de taal te aanvaarden (en er zijn er heel wat), dan heb je ook minder moeite met ongerijmdheden in het algemeen, zoals het pushen van AI-systemen. Laat mij iets weten als het je lukt om het tegendeel te bewijzen.

Alles wordt uitgebuit. AI roept weliswaar veel vragen op, maar doet ook veel beloften. En ook hier wordt FOMO actief gemaximaliseerd door bedrijven die garen spinnen bij AI. De kritische hoofdredacteur van DataNews schreef al enkele interessante bijdragen over AI.

Angst om de boot te missen duwt CEO's richting AI

Een interessant artikel in DataNews. De inleiding:

Voor CEO's is AI dé toptechnologie die hun industrie in de komende drie jaar overhoop zal gooien. Angst is de drijfveer.

Veel van de aangehaalde informatie lijkt ook weer van Gartner afkomstig te zijn. En daarmee is eigenlijk veel gezegd. Het artikel bevat een schrikbarende grafiek over het percentage CEO's die diverse aspecten van de bedrijfsvoering als prioriteiten beschouwen: Growth 49%, Technology Related 34%, Workforce 32% (war for talent), Corporate Action 31% (overnames e.d.), Financial 19%, Cost Management 14%, Products and Services 13%, Environmental/Sustainability 12%, Customer 8%, Efficiency and Productivity 7%. Relevant voor het artikel is uiteraard dat "Technology Related" op de tweede plaats komt; veel verontrustender vind ik dat omgeving, klanten en productiviteit achteraan bengelen! En groei op de eerste plaats, dus nog meer concurrentie? De aarde moet echt kapot. Deze informatie geeft mij weer het vervelende gevoel dat Gartner veel te machtig is geworden, en het blind achternahollen van groei en technologie genadeloos ondersteunt. En als het niet vooral Gartner is, dan is het een socio-economische stroming die vroeg of laat bij gebrek aan grondstoffen of bij een overschot aan afval (zoals resultaten van foute systemen) wel zal stoppen zeker? Als we tegen dan al niet uitgestorven zijn. Zotte wereld.

Opgepast: kan sporen van AI bevatten

Opnieuw een artikel in DataNews. De inleiding:

We weten ondertussen dat kunstmatige intelligentie maar zo slim is als de data waarop en waarmee ze getraind is (het zou goed zijn als iedereen daarvan doordrongen geraakt). Maar zelfs als de data ontoereikend zijn, dan trekt AI haar plan (AI doet ongeremd haar ding, zonder enig besef van kwaliteit; meteen het grootste gevaar). Artificiële intelligentie heeft er een handje van weg (zo lijkt het toch) om zich intelligenter voor te doen dan ze in werkelijkheid is; dat heeft de technologie dan alvast gemeen met mensen (leuke vergelijking :-). Maar wat sommige mensen daarnaast maar al te graag doen is hun producten of diensten slimmer doen lijken door er een hip label op te plakken, zoals powered by AI, of unieke machine-learning-algoritmen en innovatieve AI-modellen. Inclusief voorbeelden.

Ik probeerde nog iets spitsvondigs te schrijven over die vergelijking tussen mensen en AI-systemen, maar het lukte niet. Er kwam niks. Behalve een hoop vragen, bijvoorbeeld "wat is intelligentie?". Techneuten proberen met AI-systemen de menselijke intelligentie na te maken, dus is het ook niet zo verwonderlijk dat die systemen op mensen gaan lijken, tenminste op het vlak van probleemoplossing. Of we dat dan "artificiële intelligentie" mogen noemen is een andere vraag. Wikipedia is in deze materie misschien niet de beste bron, maar dit haal ik er wel uit betreffende artificiële intelligentie:

Hoewel een computer processen als denken en intelligentie kan nabootsen, lijken deze simulaties (bedoeld worden bv. schaakprogramma's en robots) vooral gebaseerd op de snelheid van doorzoeken van teksten of mogelijke oplossingen (!). In dit verband meent Douglas Hofstadter dat hierbij aan de kern van het menselijk denken, namelijk het begrijpen van logica en maken van analogieën wordt voorbijgegaan. Uiteraard.

Een moderne schaakcomputer kan sneller dan een mens alle mogelijke zetten doorrekenen, en de waarschijnlijk beste eruit halen. Dat is een kwestie van veel rekenkracht, maar niet van intelligentie. En hoe groter de rekenkracht, hoe groter de kans dat de computer het wint van de schaakgrootmeester. Zo'n computer kan dat ook onmiddellijk, zodra hij is gebouwd, terwijl een mens wordt geboren met ELO-rating 0, en het schaken geleidelijk moet leren, wat een heel ander, biochemisch proces is. AI-systemen als ChatGPT bevatten een neuraal netwerk, dat dit biochemisch proces wil simuleren met wiskundige methoden.

Een neuraal netwerk bevat, simpel gezegd, netwerkcellen die een variabele waarde hebben, en die verbonden zijn met ingangscellen en uitgangscellen. Het netwerk wordt getraind door diverse ingangssignalen aan te leggen, en bij elke ingang aan het systeem aan te geven wat het daarbij horende uitgangssignaal is, wat aanleiding geeft voor de tussenliggende cellen om een bepaalde waarde aan te nemen. De ingang zou bv. het beeld van een letter kunnen zijn (voor een beeld van 16×16 pixels heb je dan 16×16=256 ingangssignalen nodig), en de uitgang bevat bv. 36 signalen voor 26 letters en 10 cijfers. Een getraind netwerk kan vervolgens autonoom uit ingangssignalen, ook nieuwe (bv. in andere lettertypen), de uitgangssignalen afleiden.

Deze methode bestaat al zeer lang; de eerste vermeldingen gaan terug tot 1957, en in de jaren 90 was er een heropleving, maar geen doorbraak, voornamelijk door capaciteitsproblemen. Wat de afgelopen maanden is voorgesteld is daarop gebaseerd; door de toename van de rekencapaciteit (en de concurrentiedrift in de techsector om de technologie te vermarkten) kan nu gewerkt worden met een gigantisch groot aantal ingangs- en uitgangssignalen, waardoor het aantal toepassingen sterk is toegenomen. Niettemin is een systeem als ChatGPT nog altijd opgebouwd om een tekstueel antwoord te geven op een tekstuele vraag, op basis van bestaande teksten, en bv. niet om te schaken. Een neuraal netwerk, en met uitbreiding een AI-systeem, kan alleen datgene doen waarvoor het is gemaakt. Met een mens is dat wel anders. Nog een leuk geval, en meteen een voorbeeld van de beperkingen: er werd een AI-systeem getraind om husky's te herkennen uit een groot aantal foto's van honden; het systeem leek goed te werken, maar tijdens verder gebruik bleek dat het niet reageerde op het ras van de honden, maar wel op de sneeuw op de foto's. AI-systemen lijken dan wel intelligentie te simuleren, maar ze komen niet verder dan een kind van een jaar of drie.

Ik kom even terug op die quote van Van der Stadt, dat artificiële intelligentie zich intelligenter voordoet dan ze in werkelijkheid is. Na de bedenkingen hierboven wil ik dit anders verwoorden: een AI-systeem lijkt intelligenter dan het is. Of nog, en dat is misschien een houvast in verdere discussies: een AI-systeem simuleert intelligentie, maar bezit ze niet. En dan is dat hele gezever over artificiële superintelligentie meteen ook flauwe kul (en een aanzet om de techsector in de gaten te houden!). In die zin is de term "artificiële intelligentie" een vlag-en-ladingprobleem van jewelste. De tekst is overigens de moeite waard om helemaal te lezen. Het besluit: als AI iets teveel blinkt, dan is ze te hard opgepoetst.

Bias is geen AI-probleem

Hoger al aangehaald: er zit geen bias (wel fouten) in trainingsdata voor dode AI-systemen, wel in de selectie daarvan door levende mensen. Meer daarover in het artikel van wetenschapsfilosofe Merel Lefevere van UGent. Zeker het lezen waard. De combinatie met Van der Stadt's vergelijking van AI-systemen met mensen genereert wel nieuwe bedenkingen.

Misschien lijken AI-systemen wel op mensen, maar mensen lijken ook op AI-systemen: garbage in, garbage out. De combinatie van inputsignalen en instructies genereert vooral in de jonge jaren patronen in de hersenen die er nooit meer uit geraken. Inclusief vooroordelen en andere ellende. Maar wat zijn vooroordelen? Het probleem daarmee is dat die niet absoluut zijn, maar relatief. Een vooroordeel is maar een vooroordeel als 'men' het daarover eens is. De criteria om een bepaald idee een vooroordeel te noemen zijn relatief. Dat een onderzoeker eerder een witte man met een baard is, is geen vooroordeel, tenzij je beter weet. En 'beter weten' is iets dat maatschappelijk groeit. Als individu weet je niet beter dan wat in je hersenen zit. Of wel? Dit is glad ijs. Ik ga terug naar de kant.

AI is zelfs niet het probleem

Het artikel van Lefevere verwijst overigens naar een ander dat nog veel interessanter is: AI is niet het probleem, het zijn de mensen erachter. Eén van de kernpunten:

In de techindustrie en in de media gonst het van de geluiden dat AI de planeet zal overnemen en de mensheid uitroeien, terwijl vragen over wat de technologie precies doet, wie daar baat bij heeft en wie er schade door lijdt onbeantwoord blijven. "Door de discussie in die richting te duwen, lijkt het alsof het instrument ­alle macht in handen heeft", zegt ze (Timnit Gebru, bij Google ontslagen wegens kritiek op AI), "waardoor ze de verantwoordelijkheid kunnen afschuiven: 'Ik ben niet het probleem. Het is de apparatuur. Die is superkrachtig. We weten niet wat ze van plan is'. Nee, jij bent het probleem. Je bouwt iets met bepaalde eigenschappen, enkel en alleen voor eigen gewin. De rest is misleiding, het neemt de aandacht weg van de echte schade en wat we daaraan moeten doen, en liefst vandaag nog!".

Eén en ander wordt volledig bevestigd in AI-industrie strooit zand in onze ogen, van een docent van de TU Delft. Te veel interessante stellingen om over te slaan; zelf lezen dus. Timnit Gebru komt opnieuw ter sprake, en de hoger vermelde Geoffrey Hinton krijgt een veeg uit de pan. AI is niet het probleem, big tech wel.

Moet er nog zand zijn?


Bijwerking 18-07-2023

Een artikel in De Standaard op 01-06-2023: Ik heb de gevaren van AI niet ernstig genoeg genomen. Aan het word is Yoshua Bengio, een "peetvader van artificiële intelligentie". Ik selecteer enkele opmerkelijke passages uit het interview, en voorzie ze van commentaar. En ik blijf bij de stelling dat superintelligentie er nooit zal komen.


Bijwerking 08-08-2023

Een artikel in DataNews wijst op een serieus gevaar: Vrees voor 'robo-inteelt': wat als AI traint op AI-content? (1) Generatieve AI-systemen worden getraind met data van het internet. (2) Generatieve AI-systemen gaan allicht meer en meer data produceren die ook op internet verschijnen. (1)+(2): fouten in data gaan zich exponentieel verspreiden. Het verschijnsel heeft al een naam: Model Autophagy Disorder. Na een vijftal cycli zouden data volledig onbetrouwbaar worden, en dat geldt dan ook voor gewone zoekmachines.


Bijwerking 22-08-2023

Een nieuw artikel in DataNews: Trainen van AI-systemen vergt enorme hoeveelheden stroom en water. Een bevestiging van het probleem, maar het aspect water is nieuw voor mij. Het artikel zegt bovendien nergens hoe of waarvoor dat water wordt gebruikt; vermoedelijk gaat het om koelwater. Dat er zelfs sprake is van 'drinken' knaagt nog meer aan de betrouwbaarderheid van het artikel. Het originele artikel van Thomson Reuters Foundation is op dit punt overigens identiek, dus aan de vertaling ligt het niet. Wel een vertaalfoutje is dat DataNews het heeft over een verbruik van 5.6 miljard liter water door Google in 2022; het originele artikel zegt '5.6 billion gallons', en dat is zowat 3.8 keer meer.