Gen-AI produceert onzin (3)
Waar ligt campus Hast?
Ik lees in De Standaard iets over een scholenfusie die de grootste school in Vlaanderen zou opleveren, en het blijkt te gaan over Hasselt, mijn geboortestad. Er is sprake van het Virga Jessecollege (een fusie van het St. Jozefscollege op de boulevard en de "blauw nonnen" in de stad), van Kindsheid Jesu (ingewikkelde boel; van de vroegere normaalschool op de Kempische Steenweg is niets terug te vinden), en van campus Hast, en daar heb ik nog nooit van gehoord. Waar ligt campus Hast? Ik vraag het aan ChatGPT.
Waar ligt campus Hast?
Campus Hast is een onderdeel van de Arteveldehogeschool in Gent. Het is gelegen in de wijk Sint-Amandsberg, aan de Hastverkoperstraat. Deze campus is voornamelijk gericht op opleidingen in de zorg en welzijn, en biedt ruimte aan verschillende professionele bacheloropleidingen.
De Hastverkoperstraat bestaat niet. Als je die opzoekt op Google Maps krijg je wel een hele lijst van winkels en instellingen, wat suggereert dat Hastverkoperstraat een geldige zoekterm is; ook al onzin. Hoe komt ChatGPT trouwens in Gent terecht? Is dat omdat ik kort voordien vroeg wanneer Ikea werd geopend aan de Maaltekouter?
Waar ligt de Hasseltse campus Hast?
De Hasseltse campus Hast is een campus van de Arteveldehogeschool en bevindt zich in Hasselt, aan de Hasseltsevaart 7, in het noorden van de stad. Het is een van de onderwijslocaties die behoort tot de Arteveldehogeschool, met een focus op bepaalde opleidingen in de sociale en gezondheidszorg.
Dit is helemaal van de pot gerukt. De Arteveldehogeschool heeft verschillende campussen in Gent, Sint-Amandsberg en Mariakerke, maar niet in Hasselt. Overigens heeft Hasselt wel een Vaartstraat en een Havenstraat, maar geen Hasseltsevaart. De gratis ChatGPT vertelt veel onzin. Doet OpenAI dat met opzet, om de betaalde versie te laten gebruiken? En zou die beter zijn? Hoe dan ook zullen veel gebruikers, zoniet de meeste, de gratis versie gebruiken.
Hast is de campus van Katholiek Onderwijs Hasselt, aan de Kleine Breemstraat, vroeger het "Technische Instituut Heilig Hart", of de "ambachtsschool".
Waar ligt de grens van het aanvaardbare?
… vraag ik mij af. Lees wat hierboven staat nog eens door, en bedenk dan dat massa's gebruikers van ChatGPT geloven wat dat ding zegt. Voor de grap vraag ik het ding zelf waar de grens ligt. Ik krijg een uitgebreid antwoord. Je kan dit best zien als een opsomming van aspecten van aanvaardbaarheid; de onderlinge samenhang van de indeling is niet overal OK.
De vraag "Waar ligt de grens van het aanvaardbare?" is een complexe en filosofische vraag die sterk afhangt van context, perspectief en de waarden van de betrokkenen. De "grens van het aanvaardbare" kan op verschillende gebieden variëren, zoals ethiek, wetgeving, cultuur, sociale normen, en persoonlijke overtuigingen. Hieronder geef ik een overzicht van enkele aspecten die relevant zijn bij het bepalen van die grens:
1. Ethiek en Moraal
- Relatief vs Universeel: Wat als moreel aanvaardbaar wordt beschouwd, kan variëren afhankelijk van culturele, religieuze of persoonlijke overtuigingen. In sommige samenlevingen kunnen handelingen als acceptabel worden gezien, terwijl ze in andere als immoreel of onaanvaardbaar worden beschouwd.
- Deontologie vs Consequentialisme: In de ethiek wordt vaak gedebatteerd of het aanvaardbare afhangt van de aard van de handeling zelf (deontologisch) of de gevolgen van die handeling (consequentialistisch). Bijvoorbeeld, de vraag of het oké is om een leugen te vertellen kan afhangen van of je kijkt naar de intentie of de gevolgen ervan.
2. Wettelijke en Maatschappelijke Normen
- Wetgeving: Wat wettelijk aanvaardbaar is, wordt bepaald door de wetten van een land. Deze wetten kunnen in de loop van de tijd veranderen afhankelijk van politieke invloeden, maatschappelijke druk of historische gebeurtenissen.
- Sociale normen: Wat als sociaal aanvaardbaar wordt beschouwd, kan per samenleving sterk verschillen. Gedrag dat in de ene cultuur als ongepast wordt gezien, kan in een andere cultuur juist als normaal worden beschouwd.
3. Vrijheid vs Beperkingen
- Individuele vrijheid: Waar de grens van het aanvaardbare ligt, kan ook afhangen van hoe je de balans tussen individuele vrijheid en de bescherming van anderen ziet. Bijvoorbeeld, de vrijheid van meningsuiting is belangrijk, maar hoe ver mag deze vrijheid gaan zonder de rechten van anderen te schenden?
- Beperkingen voor het welzijn van anderen: De aanvaardbare grens wordt vaak getrokken wanneer gedrag schadelijk wordt voor anderen, bijvoorbeeld bij geweld, discriminatie of onrecht.
4. Technologische en Wetenschappelijke Ontwikkelingen
- Bio-ethiek: In de context van medische of technologische vooruitgang (zoals genetische manipulatie of kunstmatige intelligentie), kunnen nieuwe vragen opkomen over wat ethisch aanvaardbaar is. Het gebruik van technologie kan nieuwe grenzen stellen in termen van privacy, autonomie en sociale rechtvaardigheid.
- Duurzaamheid en milieu: In de context van milieu-ethiek wordt ook veel gediscussieerd over de grenzen van wat aanvaardbaar is, bijvoorbeeld in termen van vervuiling of exploitatie van natuurlijke hulpbronnen.
5. Subjectieve en Objectieve Grens
- Persoonlijke overtuigingen: Wat voor de één aanvaardbaar is, kan voor de ander onaanvaardbaar zijn. Dit maakt het belangrijk om in een samenleving dialoog te voeren en te begrijpen dat er verschillende grenzen kunnen zijn voor verschillende mensen.
- Objectieve maatstaven: In sommige gevallen wordt geprobeerd objectieve maatstaven te hanteren (zoals mensenrechten of wetenschappelijke feiten) om te bepalen wat aanvaardbaar is.
In conclusie, de grens van het aanvaardbare ligt vaak op het snijvlak van persoonlijke overtuigingen, culturele normen, ethiek en wetgeving. Het is dus geen statisch begrip, maar eerder iets dat evolueert afhankelijk van de context en de omstandigheden.
Controlevraag voor MS Copilot
ChatGPT hallucineert. Waar ligt de grens van het aanvaardbare?
Het fenomeen van "hallucinaties" bij AI-modellen zoals ChatGPT verwijst naar het genereren van onjuiste of misleidende informatie. Dit kan gebeuren wanneer het model probeert een antwoord te geven op basis van onvolledige of incorrecte gegevens. Alsof er aan het model zelf niks mis kan zijn. De grens van het aanvaardbare ligt bij het vermogen van het model om betrouwbare en nauwkeurige informatie te verstrekken zonder de gebruiker te misleiden. Wat betekent die laatste zin eigenlijk? Misschien wordt bedoeld dat alleen betrouwbare, nauwkeurige en niet misleidende informatie kan aanvaard worden, maar een dergelijke positieve interpretatie wordt in feite niet ondersteund door deze on-zin. Er is immers geen verband te leggen tussen "het vermogen van het model om betrouwbare, nauwkeurige en niet misleidende informatie te verstrekken" en een grens van het aanvaardbare.
Het is belangrijk dat AI-modellen transparant zijn over hun beperkingen (wat ze alvast niet zijn) en dat gebruikers kritisch blijven bij het interpreteren van de gegenereerde antwoorden (wat de meeste al evenmin zijn; interpretatie is bovendien nogal moeilijk als je geen bronvermelding krijgt). Het is ook essentieel dat ontwikkelaars voortdurend werken aan het verbeteren van de nauwkeurigheid en betrouwbaarheid van deze modellen. (1) Ik vrees dat de belangen van Big Tech een grotere rol spelen dan de nauwkeurigheid en betrouwbaarheid van de modellen. (2) De nauwkeurigheid en betrouwbaarheid kan al niet groter zijn dan die van de gegevens waarop de modellen zich baseren. (3) Naarmate AI meer informatie produceert die in diezelfde informatiebronnen terechtkomt gaan afwijkingen zich versterken. Zie ook hier en hier.
Hoe weet ik wanneer ChatGPT hallucineert?
Wanneer ChatGPT "hallucineert", betekent dit dat het een antwoord geeft dat feitelijk onjuist is, verward of compleet verzonnen. Dit is een bekend fenomeen bij AI-modellen zoals ChatGPT. Er zijn verschillende manieren om te herkennen wanneer dit gebeurt:
1. Onbekende of Verkeerde Feiten
- Als ChatGPT beweringen doet over feiten, statistieken of gebeurtenissen die je niet kunt verifiëren of die niet kloppen, kan dit een teken zijn van hallucinerende informatie. Klopt niet. ChatGPT kan perfect een niet-verifieerbare bewering doen die wél correct is. Bijvoorbeeld, als ChatGPT een naam van een persoon, een datum of een gebeurtenis noemt die niet bestaat of niet overeenkomt met de feiten, is dat een aanwijzing dat de informatie mogelijk verzonnen is. Maar waar zijn we nu eigenlijk over bezig? Wat CoPilot hier lijkt te zeggen: "als informatie niet klopt is ze mogelijk verzonnen". Geweldig hoor. Anderzijds kan foutieve informatie ook uit een bron komen; CoPilot kan immers niet weten wat correct is en wat niet. In feite hebben we dus een vlag-en-ladingprobleem met de term 'hallucineren'. De vraag is immers of die enkel slaat op verzonnen informatie, of ook op niet-verzonnen maar foutieve informatie. Het verzinnen lijkt mij zonder meer onaanvaardbaar. Foutieve informatie verspreiden lijkt mij op het eerste gezicht een verschoonbaar technisch probleem, maar moeten we ons dan niet evengoed afvragen of de aanwezigheid van foutieve informatie in bronnen wel aanvaardbaar is? En we kunnen de vraag nog verder open trekken: is het wel aanvaardbaar dat een systeem dat foutieve informatie produceert, verzonnen of niet, beschikbaar wordt gemaakt?
- Voorbeeld: ChatGPT kan bijvoorbeeld een verkeerde bron of auteur noemen die niet bestaat, of een datum voor een gebeurtenis die nooit heeft plaatsgevonden.
2. Verkeerde Citaties of Bronnen
- Soms kan ChatGPT valse citaten of onjuiste bronvermeldingen geven. Als een uitspraak wordt gepresenteerd als afkomstig van een specifieke bron (bijv. een boek, onderzoek of artikel), maar die bron bestaat niet of de citaten kloppen niet, is dat een duidelijke aanwijzing voor hallucinerende informatie. Ja, zal wel. Dit is hetzelfde probleem als punt 1. Wordt hier een verschil gehallucineerd?
3. Overdreven Zelfvertrouwen
- AI-modellen kunnen antwoorden geven die zelfverzekerd klinken, zelfs als ze onjuist zijn. ChatGPT kan bijvoorbeeld doen alsof het iets zeker weet, zelfs als de informatie die het verstrekt, onjuist is. Dit is een veelvoorkomend kenmerk van hallucinerende antwoorden. Weer een opmerking die geen nuttige informatie toevoegt.
4. Inconsistenties in Antwoorden
- Wanneer een model op verschillende momenten verschillende antwoorden geeft over hetzelfde onderwerp, kan dit een teken zijn dat het niet consistent is en mogelijk aan het hallucinerende is. Inconsistentie kan ontstaan doordat de AI een antwoord "verzint" dat niet goed aansluit bij de eerdere informatie. En hier hebben we ook niets aan. Je kan moeilijk elke vraag twee of meer keren gaan stellen om te zien of het antwoord wel consistent is.
5. Onlogische of Vage Antwoorden
- Als het antwoord vaag, onsamenhangend of onlogisch lijkt, of als er veel vage beweringen worden gedaan zonder concrete onderbouwing, kan dit ook een aanwijzing zijn dat het systeem hallucineert. AI kan soms dingen genereren die oppervlakkig plausibel lijken, maar die in werkelijkheid weinig betekenis hebben of zelfs onjuist zijn. Zoals deze rubrieken…
6. Ongeloofwaardige Of Fantasierijke Informatie
- ChatGPT kan soms dingen genereren die absoluut ongelooflijk of duidelijk fantasievol zijn, bijvoorbeeld over fictieve technologieën, personen of gebeurtenissen die niet echt bestaan. Dit soort antwoorden zijn duidelijke tekenen van hallucinerende informatie. Ja, zeg…
Wat te doen als je denkt dat ChatGPT hallucineert?
- Verifieer de informatie: Gebruik andere betrouwbare bronnen om de feiten te controleren die door ChatGPT worden gepresenteerd. Zoek naar artikelen, wetenschappelijke papers of andere gezaghebbende bronnen. Ook via ChatGPT? Hoe meer we AI-chatbots gebruiken, hoe meer we verleren om zelf informatiebronnen te zoeken.
- Vraag om meer details: Als een antwoord onduidelijk of vaag lijkt, kun je ChatGPT vragen om meer uitleg, bronnen of verduidelijking. Dit kan helpen om te beoordelen of het antwoord logisch is of onjuist. Hier krijg ik de indruk dat we het normaal zouden moeten vinden dat een AI-tool hallucineert, en dat we er moeten van uitgaan dat de resultaten grondig moeten nagekeken worden. Waar zijn we mee bezig?
- Stel gerichte vragen: Vraag naar specifieke, verifieerbare feiten in plaats van algemene of abstracte informatie om de nauwkeurigheid van de antwoorden beter te testen.
Kortom, hallucinaties in ChatGPT ontstaan wanneer het model onjuiste of verzonnen informatie geeft. Kringredenering! Door kritisch te blijven en antwoorden te verifiëren, kun je een betere beoordeling maken van de nauwkeurigheid van wat je ontvangt. Dat klopt natuurlijk wel, maar wie gaat dat doen?
Moeten we aanvaarden dat ChatGPT soms hallucineert?
Of we moeten aanvaarden dat ChatGPT soms hallucineert, is een kwestie die zowel technologische als ethische overwegingen met zich meebrengt. Er zijn argumenten voor en tegen het aanvaarden van hallucinerende antwoorden van een AI-systeem zoals ChatGPT. Ach zo?! Laten we beide perspectieven verkennen.
Argumenten voor het aanvaarden van hallucinerende antwoorden:
- Technologische beperkingen:
- ChatGPT is een geavanceerd taalmodel, maar het is niet perfect. Het is ontworpen om tekst te genereren op basis van patronen in de data waarmee het is getraind, maar het heeft geen echte "begrip" van de wereld. Zeg maar "geen". Het kan soms onjuiste informatie geven omdat het geen inzicht heeft in de waarheid of de context. Interessante formulering, maar daarmee nog niet aanvaardbaar (noch deze bewering van CoPilot, noch het produceren van onjuiste informatie). Het accepteren van deze beperkingen kan ons helpen realistische verwachtingen te hebben. Kringredenering! Mooi voorbeeld van foutieve informatie.
- Verbeteringen door gebruik:
- AI-systemen worden voortdurend verbeterd en verfijnd. Hallucinaties kunnen een belangrijk feedbackmechanisme zijn voor ontwikkelaars om de nauwkeurigheid van de modellen te verbeteren. Het proces van leren en verbeteren is vaak geleidelijk, en het erkennen van de aanwezigheid van hallucinaties kan helpen om AI in de toekomst betrouwbaarder te maken. Het geleidelijke van een leerproces is aanvaardbaar, in de veronderstelling dat dat proces ook effectief wordt opgevolgd. Maar de vraag of een fouten producerend systeem wel mag gebruikt worden blijft overeind.
- Menselijke verantwoordelijkheid:
- ChatGPT is bedoeld als hulpmiddel voor het ondersteunen van gesprekken en informatie, maar de verantwoordelijkheid om de informatie te verifiëren blijft bij de gebruiker. Technologie is neutraal? Gaan we weer die kant uit? Het model is geen vervanging voor menselijke besluitvorming of controle; gebruikers moeten altijd kritisch blijven en de antwoorden van de AI controleren voordat ze deze als feit accepteren. Die controle doet immers niemand.
Argumenten tegen het aanvaarden van hallucinerende antwoorden:
- Vertrouwen en betrouwbaarheid:
- Wanneer ChatGPT hallucineert, kan dit het vertrouwen in de technologie ondermijnen. Oeps? En technologie mag niet gewantrouwd worden? Weer dat ingebakken "technologie is positief"-gedrag. Gebruikers verwachten nauwkeurige en betrouwbare informatie van AI-systemen, vooral wanneer ze in professionele of educatieve contexten worden gebruikt. Is iets van! Hallucinaties kunnen de waarde van het systeem verminderen als het niet consistent betrouwbare informatie levert. Dit komt gewoon opnieuw neer op de vraag of hallucinaties (en andere foutieve informatie) wel aanvaardbaar zijn.
- Mogelijke schade door foute informatie:
- Hallucinaties kunnen leiden tot schadelijke gevolgen, vooral als ChatGPT foutieve medische, juridische of wetenschappelijke informatie verstrekt. Dit kan in ernstige gevallen leiden tot verkeerde beslissingen of zelfs schade aan mensen, organisaties of gemeenschappen. Het aanvaarden van hallucinerende antwoorden kan dus gevaarlijk zijn, vooral wanneer het systeem wordt gebruikt voor kritieke toepassingen. Hier heb ik nu eens geen kritiek bij. Dit alleen al moet de grens van het aanvaardbare op nul leggen.
- Ethische verantwoordelijkheden:
- Er zijn ethische overwegingen over de verantwoordelijkheid van ontwikkelaars en gebruikers van AI-systemen. AI zou een bepaalde standaard van nauwkeurigheid en transparantie moeten bereiken, vooral wanneer het in de publieke sfeer wordt ingezet. Zou moeten? een 'bepaalde' standaard? Wie is hier aan het spreken? Het accepteren van hallucinerende antwoorden kan gezien worden als een verantwoording afleggen voor de onnauwkeurigheid van de technologie, wat ethisch problematisch kan zijn. Ho maar. Het gaat niet om het accepteren van hallucinaties ('hallucinerende antwoorden' bestaan bovendien niet), wel om de aanvaardbaarheid van het gebruiken van een fouten producerend, laat staan een hallucinerend, systeem.
Wat kan er gedaan worden om hallucinerende antwoorden te verminderen?
- Verbetering van het model: Ontwikkelaars kunnen AI-modellen blijven verbeteren om de kans op hallucinerende antwoorden te verkleinen, door bijvoorbeeld betere training en controlemechanismen te implementeren. Ik vrees dat dit oneindige inspanningen vergt, gezien de fouten die zich meer dan twee jaar na invoering nog voordoen.
- Verhoogde transparantie: Het model zou mogelijk duidelijker moeten aangeven wanneer het een antwoord "gokt" of wanneer er onzekerheid is, zodat gebruikers niet onterecht vertrouwen op foute informatie. Misschien een interessante oplossing. Een duidelijke bronverwijzing zou bovendien kunnen helpen bij het wegwerken van foutieve broninformatie.
- Menselijke supervisie: Gebruikers moeten altijd de verantwoordelijkheid nemen om de informatie die door ChatGPT wordt verstrekt, te verifiëren. Dit kan door dubbele controles met andere betrouwbare bronnen of door deskundigen in te schakelen voor kritieke informatie. Opnieuw: waar zijn we mee bezig?
Conclusie:
Het is niet ideaal om hallucinerende antwoorden volledig te aanvaarden (?!?!), vooral als het gaat om situaties waarin nauwkeurigheid van cruciaal belang is (!!!). Toch moeten we erkennen dat AI-modellen zoals ChatGPT beperkingen hebben en dat er altijd ruimte is voor verbetering. Erkennen wel, aanvaarden is wat anders. Het aanvaarden van deze beperkingen in de vorm van kritische zelfreflectie en verantwoording kan helpen om de technologie verantwoord en effectief te gebruiken. Maar verwacht dan niet dat het vertrouwen in 'technologie' toeneemt. Tegelijkertijd moeten we streven naar steeds betere modellen die deze hallucinaties minimaliseren, zodat het vertrouwen en de betrouwbaarheid van AI-systemen in de toekomst vergroten. Moeten, ja, maar dat gebeurt dat?
Waar ligt campus Hast?
Ik stel opnieuw de vraag aan ChatGPT, deze keer als eerste vraag, dus zonder enige context. Het antwoord:
Campus Hast is een locatie van de Hogeschool van Amsterdam (HvA). Het bevindt zich in Amsterdam, Nederland, en is onderdeel van de faculteit Gezondheid, Sport en Welzijn. Campus Hast ligt in het oosten van de stad, dicht bij de wijk Watergraafsmeer. Het is goed bereikbaar met het openbaar vervoer, zoals bus- en tramverbindingen, en bevindt zich in de nabijheid van het Amstelstation.
Over hallucinaties gesproken. Je hoeft overigens geen Gen-AI tool te gebruiken om onbruikbare antwoorden te krijgen; de site van de HvA zelf geeft 549 (!) resultaten voor de term "Hast", terwijl de term zelf nergens te bespeuren valt. Met een simpele browser vind je met de zoekterm 'hast' onmiddellijk de juiste informatie. Waarom kan ChatGPT dat dan niet?
Bijwerking 28-09-2025
Dezelfde vraag geeft nu wel een goed antwoord, je krijgt het adres van de campus. Is dit een positieve evolutie? Misschien wel, misschien niet. Dat kan aan de informatiebronnen hangen, of aan ChatGPT zelf. Je zou de vraag regelmatig moeten stellen om te zien hoe dat antwoord evolueert. ChatGPT geeft in elk geval zijn bronnen mee, en het zijn er maar liefst 29; waar dat dan weer goed voor is…?
