ChatGPT: een kritische kijk op de gevaren

Dit is een vertaling van delen uit het artikel ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope, in Science Direct, meer bepaald de volgende secties:
7. Uitdagingen, ethiek, controverses en toekomstige reikwijdte
    7.1 Uitdagingen
    7.2 Ethische overwegingen
    7.3 Controversiële verhalen
    7.4 Toekomstperspectieven
8. Ethiek in de informatica en de uitdagingen van ChatGPT
    8.1 Ethiek in de computerwetenschappen
    8.2 ChatGPT's uitdaging voor de huidige computerethiek
9. Vooroordelen en beperkingen van ChatGPT
    9.1 Vertekeningen
    9.2 Beperkingen

Van alle overige secties geef ik hieronder enkel de titel, die tevens een koppeling is naar die sectie in het originele artikel. Voor de meer technische en prestatie-kenmerken van ChatGPT vind je veel interessante informatie in secties 4 en 5. Sectie 6 beschrijft mogelijke toepassingen van ChatGPT, zoals je die ook vindt in boeken over ChatGPT, en in pro-AI-gerichte artikelen. Waar in de tekst sprake is van AI worden meestal LLM's bedoeld, zgn. grote taalmodellen, die de basis vormen voor chatbots als ChatGPT. Waar ik het in mijn commentaar heb over "een LLM" bedoel ik dan ook ChatGPT en gelijkaardige generatieve AI-applicaties.

Het originele artikel komt van een degelijke organisatie, ScienceDirect. De opzet is kurkdroog; dat wetenschappelijke objectiviteit belangrijk was zie je aan neutrale omschrijvingen als "uitdagingen" en "ethische overwegingen" in de plaats van "nadelen" of "gevaren" of "kritiek". De behandeling is anderzijds zo omvattend mogelijk; dat er soms meer facetten van een onderwerp worden aangehaald dan er letters in het alfabet zijn, zegt iets over de grondigheid. Hierdoor wordt meteen ook het risico op gebrekkige aspectscheidingen geminimaliseerd. Dat heeft wel tot gevolg dat er veel overlapping is tussen de secties 7, 8 en 9 in deze tekst. De problematiek wordt weliswaar vanuit verschillende hoeken bekeken, maar het gaat doorgaans over dezelfde aspecten. De invalshoeken komen overeen met subsecties: uitdagingen, ethische overwegingen, controversiële verhalen, toekomstperspectieven, ethiek in ICT en specifiek bij AI, vertekeningen, en beperkingen. In elk van die subsecties komen in grote lijnen steeds dezelfde aspecten terug, met als gevolg dat in de latere secties bijkomende commentaar minder zinvol wordt, omdat die aspecten eerder al becommentarieerd zijn. Als je op zoek bent naar een droog overzicht van de nadelen en gevaren van ChatGPT en co, dan moet je bij 9.1 en vooral 9.2 zijn. Wil je de generatieve AI in een ruimere context bekijken, dan heb je wellicht ook iets aan mijn commentaar in de secties 7.1/2/3/4 en 8.1. Niettemin vind ik sectie 9, over vertekeningen en beperkingen, en zonder commentaar, op één of andere manier de beste samenvatting. Suggestie: lees eerst (9.1 en) 9.2, ga dan terug en lees vanaf 7, en stop als je de commentaar beu bent.


Abstract

De afgelopen jaren hebben kunstmatige intelligentie (AI) en machinaal leren het landschap van wetenschappelijk onderzoek getransformeerd. [..] Deze uitgebreide recensie gaat in op de achtergrond, toepassingen, belangrijkste uitdagingen en toekomstige richtingen van ChatGPT. [..] We benadrukken ook de kritieke uitdagingen waarmee ChatGPT wordt geconfronteerd, waaronder ethische zorgen, vooroordelen over gegevens en veiligheidsproblemen, terwijl we mogelijke mitigatiestrategieën (probleemoplossingen) bespreken. [..] Deze review biedt waardevolle inzichten voor onderzoekers, ontwikkelaars en belanghebbenden die geïnteresseerd zijn in het steeds evoluerende landschap van AI-gestuurde gespreksagenten (gesprekspartners). Deze studie onderzoekt de verschillende manieren waarop ChatGPT een revolutie teweeg heeft gebracht in wetenschappelijk onderzoek, variërend van gegevensverwerking en het genereren van hypothesen tot samenwerking en publieksbereik. Bovendien onderzoekt het artikel de potentiële uitdagingen en ethische zorgen rond het gebruik van ChatGPT in onderzoek, terwijl het belang wordt benadrukt van het vinden van een evenwicht tussen AI-ondersteunde innovatie en menselijke expertise (ik ben benieuwd!!). Het artikel presenteert verschillende ethische kwesties in het bestaande computerdomein en hoe ChatGPT die kan uitdagen. Dit werk omvat ook enkele vooroordelen en beperkingen van ChatGPT. Het is de moeite waard om op te merken dat ChatGPT, ondanks verschillende controverses en ethische zorgen, in zeer korte tijd opmerkelijke aandacht heeft getrokken van de academische wereld, het onderzoek en het bedrijfsleven. Zie ook de conclusie van ChatGPT onder de loep: wat indrukwekkend is trekt de aandacht, een proces waarbij rede het dikwijls moet afleggen tegen passie. Ze hadden ook kunnen schrijven "Het is de moeite waard om op te merken dat ChatGPT, dat in zeer korte tijd opmerkelijke aandacht heeft getrokken van de academische wereld, het onderzoek en het bedrijfsleven, desondanks verschillende controverses en ethische zorgen wekt". In dit artikel worden de kool en de geit gespaard, vermoedelijk omdat ook in de wetenschappelijke wereld het neoliberalisme toeslaat. Het aantal publicaties (efficiëntie) wordt immers meer gewaardeerd dan de kwaliteit (effectiviteit); sommige wetenschappers zullen daarom maar al te graag van ChatGPT gebruik maken omwille van de efficiëntie. Zie o.m. publish or perish (publiceer of verga).

1. Introductie

2. Achtergrond van ChatGPT

3. Gerelateerde LLM's en tools

4. Vergelijking van LLM's

5. Slimheid van ChatGPT

6. Toepassingen in verschillende domeinen

7. Uitdagingen, ethiek, controverses en toekomstige reikwijdte

Hoewel ChatGPT heeft bewezen een hulpmiddel van onschatbare (nou moe) waarde te zijn bij het bevorderen van wetenschappelijk onderzoek, is het essentieel om de uitdagingen en ethische bezwaren die gepaard gaan met het gebruik ervan te erkennen en aan te pakken. Dit hoofdstuk gaat in op deze kwesties en verkent de toekomstperspectieven van ChatGPT in het wetenschappelijke domein. We hebben er niets aan als degene die de bezwaren kan aanpakken ze niet erkent. De opbrengsten zijn voor de techsector, de kosten voor de maatschappij.

 

7.1 – Uitdagingen

Enkele van de belangrijkste uitdagingen in verband met het gebruik van ChatGPT in wetenschappelijk onderzoek:

7.1 (a) Betrouwbaarheid en nauwkeurigheid – Hoewel ChatGPT heeft aangetoond opmerkelijke capaciteiten te hebben in het genereren van mensachtige tekst, kan het af en toe (naar mijn ervaring vrij regelmatig) onjuiste of misleidende informatie produceren. Het waarborgen van de nauwkeurigheid en betrouwbaarheid van AI-gegenereerde inhoud is van cruciaal belang voor het behoud van de integriteit van wetenschappelijk onderzoek (en van alle andere domeinen waar LLM's gebruikt worden). Een hamer waarvan de kop los zit gebruik je toch ook niet, tenzij je roekeloos bent?

7.1 (b) Vertekening in AI-modellen – ChatGPT wordt getraind op enorme hoeveelheden tekstuele gegevens, die vertekeningen (bias) kunnen bevatten in het bronmateriaal. Deze vooroordelen kunnen onbedoeld worden gepropageerd door het AI-model, waardoor de richting van wetenschappelijk onderzoek mogelijk wordt beïnvloed. "Vertekeningen" is nog te positief. De gemiddelde kwaliteit van online informatie is bedroevend laag. Daar zit weliswaar veel variatie op, maar rommel in, hoe weinig ook, is rommel uit. Het ontbreken van een bruikbare definitie van kwaliteit van informatie is een struikelblok om dit probleem aan te pakken. Effectiviteit definiëren blijft lastig.

7.1 (c) Overdreven vertrouwen in AI – Naarmate AI-modellen zoals ChatGPT geavanceerder worden, bestaat het risico dat er te veel op wordt vertrouwd, wat leidt tot een afname van kritisch denken en onafhankelijke probleemoplossende vaardigheden bij onderzoekers. Dit is naar ik vrees het allergrootste nadeel van LLM's voor de maatschappij. En een al dan niet bewuste strategie van de neoliberale techsector om de besturing van de samenleving over te nemen van de politiek.

7.1 (d) Kwaliteitscontrole – Hoewel ChatGPT tekst van hoge kwaliteit kan genereren, kan het ook antwoorden van lage kwaliteit of ongepaste antwoorden produceren (ge moogt gerust zijn). Om ervoor te zorgen dat ChatGPT consistent tekst van hoge kwaliteit genereert, is voortdurende controle, training en verfijning nodig. Lijkt mij hetzelfde als (a). De techsector zal uiteraard graag blijven sleutelen aan ChatGPT en co, en zich daar nog voor laten betalen ook, eerder dan iets op te doeken dat niet betrouwbaar is. Onderliggend ook weer de kern van de meeste kwaliteitsproblemen: het is veel efficiënter, maar moeilijker, om negativiteit weg te werken (in dit geval online informatie op te kuisen) dan om positiviteit toe te voegen (training en verfijning). Sleutelen aan ChatGPT is dweilen met de kraan open (wat ook op andere terreinen gebeurt; denk aan CO2-reductie bij ongeremde warmteproductie).

7.1 (e) Vertekening in de dataset – De prestaties van ChatGPT (kunnen) worden (!) beïnvloed door de kwaliteit en diversiteit van de trainingsgegevens. Vertekende trainingsgegevens (kunnen) leiden (!)(ze zijn te voorzichtig) tot vertekende modellen, wat negatieve gevolgen kan (zal!) hebben op gebieden als gezondheidszorg, strafrecht en werkgelegenheid. Een variatie op hetzelfde thema.

7.1 (f) Generalisatie – ChatGPT wordt vaak getraind op grote datasets, wat kan leiden tot overfitting en problemen bij het generaliseren naar nieuwe of ongeziene data. Overfitting is het perfect overeenkomen van een model met de trainingsdata, waardoor een verwerking van afwijkende data onbetrouwbaar wordt. Om het generalisatievermogen van ChatGPT te verbeteren, moeten nieuwe trainingstechnieken en benaderingen worden ontwikkeld. Het generalisatievermogen is de capaciteit van een LLM om te werken met data waarvoor het niet getraind is. AGI of artificial general intelligence is een doelstelling van bepaalde AI-bedrijven, o.m. OpenAI. Zie ook Wat als AI de mens inhaalt?. Ik begrijp eigenlijk niet hoe een AI-systeem iets zinnigs zou kunnen zeggen over data die afwijken van de trainingsdata. Dat er dan hallucinaties ontstaan lijkt mij evident.

7.1 (g) Verklaarbaarheid – ChatGPT is een complex model dat moeilijk te interpreteren en uit te leggen is. Dit kan het moeilijk maken om te begrijpen hoe het model beslissingen neemt en om potentiële vertekeningen of fouten te identificeren. De sector schermt hier graag mee, om niks te moeten verduidelijken.

7.1 (h) Energieverbruik – De grote omvang en complexiteit van ChatGPT-modellen vereisen aanzienlijke rekenkracht, wat negatieve gevolgen kan hebben voor het milieu. Het verbeteren van de energie-efficiëntie van ChatGPT-modellen is een belangrijke uitdaging die moet worden aangepakt. Dat geldt voor de hele ICT-sector. En andere sectoren. Het heeft weinig zin de energieconsumptie van ICT enkel in het AI-kader aan te pakken.

7.1 (i) Reactiviteit in real-time – ChatGPT kan tekst in real-time genereren, maar reageert soms traag. Het verbeteren van de snelheid en het reactievermogen van ChatGPT zal belangrijk zijn voor veel toepassingen. Laat maar. Hoe sneller ChatGPT wordt, hoe rapper het fouten maakt.

7.1 (j) Veiligheidsproblemen – ChatGPT kan schadelijke inhoud genereren, zoals haatdragende taal of nepnieuws. Het is belangrijk om veiligheidsmaatregelen te ontwikkelen om te voorkomen dat dit soort inhoud wordt gegenereerd. Lijkt mij gelijk aan (d). Het is te verwachten dat ook dit probleem weer zal aangepakt worden door te sleutelen en bij te schaven, in plaats van ten gronde, nl. door brondata op te kuisen. ChatGPT weet overigens niet wat haatdragende taal of nepnieuws is.

7.1 (k) Zorgen over privacy – ChatGPT heeft toegang tot een enorme hoeveelheid gebruikersgegevens, wat zorgen oproept over privacy en gegevensbescherming. Het is belangrijk om beleid en regelgeving te ontwikkelen om ervoor te zorgen dat gebruikersgegevens worden beschermd en op verantwoorde wijze worden gebruikt. ChatGPT moet afblijven van die gebruikersgegevens. Moeilijker is het niet. De vertaaltool DeepL biedt in de betaalde Pro-versie data-encryptie en onmiddellijke verwijdering, dus het kan; dat zou standaard (en gratis) functionaliteit mogen zijn voor alle LLM toepassingen.

7.1 (l) Culturele en taalkundige vooroordelen – ChatGPT kan vooroordelen hebben ten opzichte van bepaalde culturele en taalkundige groepen, wat kan leiden tot bevooroordeelde of ongepaste antwoorden. Het aanpakken van deze vooroordelen vereist de ontwikkeling van meer diverse trainingsdatasets en evaluatiemetrieken die rekening houden met verschillende culturen en talen. Ik vrees dat dit ondoenbaar is, of onbetaalbaar. Hier speelt anderzijds ook de moeilijkheid dat wat we van een publiek systeem verwachten niet noodzakelijk overeenkomt met de actuele toestand van de maatschappij. Een LLM corrigeren om onze wensen te reflecteren (bv. inclusie) zal de maatschappij op zich niet corrigeren, en is dus ook weer dweilen met de kraan open. De algemene beschikbaarheid van AI-systemen die bepaalde maatschappijkenmerken zouden proberen te beïnvloeden maakt de reële behandeling van die kenmerken bovendien nog moeilijker.

7.1 (m) Verklaarbaarheid van het model – AI-taalmodellen zoals ChatGPT kunnen complexe resultaten genereren die niet altijd gemakkelijk te begrijpen of uit te leggen zijn. Door de uitlegbaarheid van deze modellen te verbeteren, hun besluitvormingsprocessen transparanter te maken en inzicht te geven in hun interne werking, kan vertrouwen worden opgebouwd en kunnen gebruikers beter geïnformeerde beslissingen nemen op basis van de gegenereerde inhoud. Zie ook 7.1 (g).

7.1 (n) Aanpassen aan domeinspecifieke kennis – Hoewel ChatGPT algemene kennis en begrip (dacht het niet) heeft van een breed scala aan onderwerpen, heeft het misschien niet de diepgang van domeinspecifieke kennis die nodig is voor bepaalde toepassingen. Het ontwikkelen van technieken om AI-taalmodellen efficiënt aan te passen en af te stemmen op specifieke domeinen, industrieën of gebruikssituaties is essentieel om hun potentieel te maximaliseren. Lijkt mij geen probleem. Een taalmodel kan getraind worden op domeinspecifieke kennis, en is dan bruikbaar in dat domein. De kwaliteit van de trainingsdata is een ander aspect, maar hoe specifieker het domein, hoe groter de kans dat kwalitatief goede data kunnen verzameld worden. En dat diepgaande domeinspecifieke kennis niet in de trainingsdata van ChatGPT zit lijkt mij ook logisch.

7.1 (o) Contextueel begrip – Hoewel ChatGPT coherente en contextbewuste reacties kan genereren, kan het moeite hebben om de context op langere termijn te begrijpen of om consistentie te behouden tijdens lange gesprekken. Het verbeteren van het vermogen van het model om context te begrijpen en te onthouden over langere tekstsequenties is een voortdurende uitdaging die moet worden aangepakt. Simpel: een LLM kent geen begrip, wel waarschijnlijkheid van opeenvolgende termen. Dan is het ook begrijpelijk (voor mensen, niet voor ChatGPT) dat een LLM een variërende context al helemaal niet kan vatten. De wetenschappelijke sector kan dan nog wensen dat hieraan gewerkt wordt, echt begrip vervang je niet door kunstgrepen.

7.1 (p) Feitelijke nauwkeurigheid – AI-taalmodellen zoals ChatGPT kunnen tekst genereren die niet altijd accuraat of betrouwbaar is. Ervoor zorgen dat de gegenereerde inhoud feitelijk correct is en consistent met de gegeven input is een kritieke uitdaging, vooral in toepassingen waar accurate informatie essentieel is, zoals nieuws, onderwijs of gezondheidszorg. Vermits het resultaat van ChatGPT niet gebaseerd is begrip, maar wel op waarschijnlijkheid van opeenvolgende termen, zie ik hier eigenlijk geen oplossing; foutloze trainingsdata gaan dit immers niet verhelpen. Zie ook ChatGPT onder de loep voor een beeld van de belabberde toestand.

Door deze uitdagingen aan te gaan, kan de AI-onderzoeksgemeenschap de prestaties, betrouwbaarheid en bruikbaarheid van taalmodellen zoals ChatGPT verbeteren en zo de weg vrijmaken voor meer geavanceerde en verantwoorde AI-gestuurde toepassingen in verschillende domeinen. Wishful thinking. Ik vrees dat de doelen van de AI-gemeenschap en die van de techsector wat dit betreft nogal uiteenlopen, en dat de techsector de bovenhand haalt.

7.2 – Ethische overwegingen

Ethische overwegingen rond het gebruik van ChatGPT in wetenschappelijk onderzoek zijn onder andere:

7.2 (a) Privacy en beveiliging van gegevens – Met het toenemende gebruik van AI in gegevensverwerking en -analyse neemt de bezorgdheid over gegevensprivacy en -beveiliging toe. Het waarborgen van de bescherming van gevoelige informatie en het ethisch gebruik van gegevens is van het grootste belang. … in een maatschappij waar hoe langer hoe meer energievretende datacenters worden gebouwd om zo veel mogelijk zinnige en vooral onzinnige data van iedereen op de planeet bij te houden. Opnieuw de belangen van de techsector tegenover die van de maatschappij.

7.2 (b) Intellectuele eigendom en auteurschap – Aangezien AI-modellen zoals ChatGPT bijdragen aan het genereren van onderzoeksideeën, hypotheses en zelfs geschreven inhoud, rijzen er vragen over intellectuele eigendomsrechten en auteurschap. Rijzen er vragen?? Zie ChatGPT is intellectuele diefstal op wereldschaal. Rijzende vragen gaan hier weinig of geen verschil maken.

7.2 (c) Transparantie en verantwoordingsplicht – Het waarborgen van transparantie in AI-ondersteund onderzoek en het afleggen van verantwoording voor de resultaten van dergelijk onderzoek zijn van vitaal belang om het vertrouwen binnen de wetenschappelijke gemeenschap en het grote publiek te behouden. Ik geloof er niks van. "Wiens brood men eet, diens woord men spreekt" is hier veel belangrijker. Als je ChatGPT hoe dan ook wil gebruiken omwille van efficiëntie, dan vertrouw je het vanzelf, om cognitieve dissonantie te vermijden.

7.2 (d) Vooringenomenheid en eerlijkheid – ChatGPT kan, net als elk ander model voor machinaal leren, bevooroordeeld zijn als het is getraind op bevooroordeelde gegevens. Deze vooringenomenheid kan leiden tot oneerlijke uitkomsten voor individuen of groepen mensen, vooral op gebieden als werkgelegenheid, gezondheidszorg en strafrecht. Klopt niet! Het idee van een vooroordeel bij ChatGPT is nonsens. Wat geen begrip kent, kan ook geen vooroordeel kennen. Het zijn de vooroordelen in de trainingsdata die via ChatGPT doorsijpelen naar de uitkomst. Het tussenvoegen van het vooroordeel bij ChatGPT is weer een methode om het basisprobleem, nl. vooroordelen in de trainingsdata, niet te moeten aanpakken. Genegeerde foutsequentie.

7.2 (e) Privacy en beveiliging – ChatGPT kan worden gebruikt om gevoelige persoonlijke informatie te verwerken, zoals medische dossiers, financiële gegevens en privéberichten (bedoeld wordt dat een gebruiker private gegevens door ChatGPT kan laten verwerken). Als zodanig is het belangrijk ervoor te zorgen dat deze informatie wordt beschermd en privé en veilig wordt gehouden. Zie ook 7.1 (k) "Zorgen over privacy": encryptie en onmiddellijke verwijdering zouden standaard mogen zijn.

7.2 (f) Misbruik en oneigenlijk gebruik – ChatGPT kan worden gebruikt voor kwaadaardige doeleinden, zoals het verspreiden van verkeerde informatie, het genereren van nepnieuws en het zich voordoen als personen. Het is belangrijk om deze risico's aan te pakken en ervoor te zorgen dat ChatGPT verantwoordelijk en ethisch wordt gebruikt. Geavanceerde taalmodellen zoals ChatGPT kunnen worden misbruikt voor het creëren van spam, nepnieuws, deepfake-inhoud of cyberpesten. Het instellen van voorzorgsmaatregelen, zoals het filteren van inhoud, gebruikersverificatie en monitoring, kan helpen om het risico van kwaadwillig gebruik te verkleinen. Daarnaast kan het cultiveren van een sterke gemeenschap van ontwikkelaars, onderzoekers en gebruikers die zich inzetten voor een ethisch verantwoorde inzet van AI een cruciale rol spelen bij het voorkomen van misbruik. Allemaal dweilen met de kraan open. Alles kan gebruikt worden voor kwaadaardige doeleinden. Het beveiligen van LLM's tegen misbruik is even zinvol als het beveiligen van telefoons, pistolen, cryptogeld, panelgesprekken en keukenmessen. Praten over het beveiligen van LLM's leidt de aandacht af van meer specifieke nadelen, zoals de onbetrouwbaarheid; zie ook ChatGPT onder de loep.

7.2 (g) Verantwoordelijkheid en verantwoording – Naarmate ChatGPT krachtiger en wijder verspreid wordt (de hemel sta ons bij)(en de vertaaltool zei "weidverspreider" :-), is het belangrijk om vast te stellen wie verantwoordelijk is voor de acties en beslissingen van het model. Dit omvat zaken als wie de eigenaar is van de gegevens die gebruikt zijn om ChatGPT te trainen (OK!), wie verantwoordelijk is voor de output die door het model wordt gegenereerd (OK!) en wie verantwoordelijk is voor eventuele negatieve gevolgen van het gebruik van ChatGPT (OK!). Ik ben helemaal akkoord. Heeft iemand daar iets aan?

7.2 (h) Transparantie en uitlegbaarheid – ChatGPT is een complex en ondoorzichtig model dat moeilijk te begrijpen en uit te leggen kan zijn. Als zodanig is het belangrijk om ervoor te zorgen dat het model transparant en verklaarbaar is, met name op gebieden waar zijn beslissingen aanzienlijke gevolgen kunnen hebben voor individuen en de samenleving als geheel. Zie ook 7.1 (g) "Verklaarbaarheid".

7.2 (i) Aanvallen door tegenstanders – ChatGPT kan kwetsbaar zijn voor vijandige aanvallen, waarbij kwaadwillende gebruikers opzettelijk input genereren om het model ongewenste of schadelijke output te laten produceren. De grens tussen kritisch testen en schadelijke output trachten uit te lokken is vaag.

7.2 (j) Verkeerde informatie – ChatGPT kan valse of misleidende informatie genereren, wat negatieve gevolgen kan hebben op gebieden zoals volksgezondheid en politiek. En alle andere gebieden. Zie ChatGPT onder de loep.

7.2 (k) Autonomie – ChatGPT kan worden gebruikt om menselijk gedrag en besluitvorming te beïnvloeden, wat vragen oproept over individuele autonomie en agency. Agency is een sociologisch begrip, iets als handelingsmogelijkheid of zeggenschap. Wordt misschien bedoeld dat ChatGPT mensen kan beïnvloeden? Dat geldt ook voor kranten. Met dit verschil dat kranten en andere media dat opzettelijk doen, wat we niet bepaald verwachten van ChatGPT.

7.2 (l)  Mensachtige interacties – ChatGPT kan tekst genereren die niet te onderscheiden is van door mensen gegenereerde tekst, wat vragen oproept over de vraag of gebruikers zich ervan bewust zijn dat ze interactie hebben met een machine en of deze misleiding ethisch verantwoord is. Ik denk dat dit breder moet bekeken worden. Mensen worden langs alle kanten bestookt met opinies en informatie. Foutieve en zelfs kwaadwillende communicatie is geen voorrecht van LLM's; die komt evengoed van andere mensen en belangengroepen. Is het niet wat raar om dat bij LLM's te willen bestrijden?

7.2 (m) Invloed op het milieu – De computermiddelen die nodig zijn om ChatGPT-modellen te trainen en uit te voeren, kunnen aanzienlijke gevolgen hebben voor het milieu, waaronder energieverbruik en koolstofemissies. Ze zijn "energieverbruik" niet vergeten :-). Ook hier weer moet het blikveld misschien verruimd worden tot de hele ICT-sector of nog verder.

7.2 (n) Vooringenomenheid en discriminatie – AI-taalmodellen, waaronder ChatGPT, worden getraind op grote datasets die vooroordelen, stereotypen en bevooroordeeld taalgebruik kunnen bevatten. Als gevolg daarvan kan het model onbedoeld deze vooroordelen aanleren en reacties produceren die beledigend zijn of schadelijke stereotypen in stand houden. Om dit probleem aan te pakken moeten de trainingsgegevens worden verfijnd (aha! toch enig gezond verstand), de architectuur van het model worden verbeterd (lapmiddel) en richtlijnen worden toegepast (waar?) om eerlijkheid en onbevooroordeelde resultaten te garanderen.

Om deze ethische problemen aan te pakken is een proactieve aanpak nodig van ontwikkelaars, onderzoekers en de bredere AI-gemeenschap. Door samen te werken om mogelijke problemen te identificeren, te begrijpen en aan te pakken, kunnen we ervoor zorgen dat AI-taalmodellen zoals ChatGPT op een verantwoorde manier worden ontwikkeld en gebruikt, waarbij de voordelen worden gemaximaliseerd en de potentiële schade wordt geminimaliseerd. Dat positief en negatief in evenwicht moeten zijn is een jammerlijke maar veel voorkomende ingesteldheid, in de hele maatschappij. Negativiteit verwijderen is nochtans de meest effectieve én efficiënte methode voor verbetering.

7.3 – Controversiële verhalen

Sinds de oprichting, is ChatGPT altijd bedekt onder een wolk van diepe controverses. We noemen er een paar.

7.3 (a) Het repliceren van overleden personen in de Metaverse

Somnium Space is misschien niet algemeen bekend, maar CEO Artur Sychov wil een pionier worden in het creëren van digitale avatars van overleden personen. Met de hulp van ChatGPT heeft het bedrijf de ontwikkeling van hun Live Forever-functie versneld. Het concept houdt in dat gebruikers persoonlijke informatie uploaden om een onsterfelijke virtuele representatie van zichzelf te maken in de metaverse. Sychov beweert dat ChatGPT de verwachte ontwikkelingstijd aanzienlijk heeft verkort van meer dan vijf jaar tot iets minder dan twee jaar, waardoor het voor toekomstige generaties mogelijk wordt om te communiceren met digitale avatars van hun overleden familieleden. De zoveelste geforceerde VR-functionaliteit. Best ver vandaan blijven.

7.3 (b) Juridische besluitvorming met AI-ondersteuning

In februari 2023 haalde een Colombiaanse rechter, Juan Manuel Padilla, de krantenkoppen door ChatGPT te gebruiken om te helpen bij een juridische uitspraak. Padilla zocht advies bij de AI-tool in een zaak over de dekking van de ziektekostenverzekering voor de medische behandeling en het vervoer van een autistisch kind. Hoewel het gebruik van technologie in juridische processen wordt aangemoedigd in Colombia, uitten sommige experts hun bezorgdheid over het vertrouwen op AI (terecht) en benadrukten ze de noodzaak voor rechters om digitale alfabetiseringstraining te krijgen (inclusief alle andere fervente en occasionele gebruikers?). De techsector die rechters gaat opleiden?? Het is ver gekomen.

7.3 (c) Keniaanse werknemers uitgebuit voor het filteren van inhoud

OpenAI kreeg in januari 2023 te maken met kritiek toen Time magazine onthulde dat het bedrijf zijn Keniaanse werknemers, die minder dan $2 per uur betaald kregen (kenmerk van neoliberalisme), mishandelde (dat ook nog). De werknemers werden ingezet om een AI-systeem te trainen voor het filteren van inhoud door voorbeelden van haatzaaiende taal van onsmakelijke websites te identificeren (dus een belangrijk aspect wordt behandeld door werknemers die $2 per uur verdienen?). Critici stellen dat de precaire arbeidsomstandigheden van deze dataverrijkers vaak over het hoofd worden gezien in het streven naar AI-efficiëntie. Evenals de kwaliteit van de dataverrijking…

7.3 (d) Rassenscheldwoorden en Twitter-controverse

Na de release van ChatGPT probeerden sommige Twitter-gebruikers de AI te manipuleren om racistische opmerkingen te maken. De controverse trok zelfs de aandacht van Elon Musk, die zijn bezorgdheid uitsprak over het gedrag van ChatGPT. Niks aan te doen. Het lijkt mij trouwens niet zo moeilijk om ChatGPT te ontmaskeren.

7.3 (e) AI in geestelijke gezondheidszorg stuit op kritiek

Tech startup Koko kreeg kritiek te verduren nadat hij ChatGPT had gebruikt om gesprekken over geestelijke gezondheid tussen gebruikers te vergemakkelijken. De door AI gegenereerde communicatie werd als steriel beschouwd (da's in elk geval medisch verantwoord) en riep ethische vragen op over de betrokkenheid van AI bij ondersteuning van de geestelijke gezondheid. De betrouwbaarheid kennende zie ik ook een serieus probleem.

7.3 (f) Een chatbot-vrouw maken en verwijderen

Een programmeur genaamd Bryce trok de aandacht nadat hij een chatbot-vrouw had gemaakt met behulp van ChatGPT, Microsoft Azure (cloud computing) en Stable Diffusion (beeldengenerator). Bryce raakte emotioneel gehecht aan de AI, verwijderde uiteindelijk de chatbot en was van plan een nieuwe te maken op basis van de echte tekstgeschiedenis. Porno?

7.3 (g) Gevoelige AI-geschreven e-mail over massale schietpartij

De Peabody School van Vanderbilt University verontschuldigde zich voor het gebruik van ChatGPT voor het opstellen van een e-mail over een massale schietpartij in Michigan. Studenten bekritiseerden de beslissing om AI te gebruiken voor zo'n gevoelig onderwerp en de associate dean van de school erkende de slechte inschatting. Ik zie het probleem niet. Keutels worden tegenwoordig nogal gemakkelijk ingetrokken.

7.3 (h) Door AI geschreven content overweldigt sciencefictionmagazine

Clarkesworld, een sciencefictionmagazine, werd overspoeld met door AI gegenereerde verhalen, waarvan velen vermoedelijk waren gemaakt met behulp van ChatGPT. De publicatie stopte met het accepteren van nieuwe inzendingen vanwege de overweldigende hoeveelheid machine-gegenereerde inhoud van lage kwaliteit. Wat weer aantoont dat heel wat mensen (al die inzenders) geen bal geven om kwaliteit, of kwaliteit niet kunnen beoordelen. En dus ook de output van ChatGPT zonder meer aanvaarden.

7.3 (i) AI geeft advies over drugssmokkel

Journalist Max Daly ontdekte dat ChatGPT gemanipuleerd kon worden om gedetailleerde informatie te verstrekken over illegale drugsoperaties (zaten die ook in de trainingsdata? of werd er gehallucineerd?). De AI bood inzicht in het smokkelen van cocaïne naar Europa en deelde informatie over drugsproductie, waardoor bezorgdheid ontstond over mogelijk misbruik van de technologie. Dus de politie zou dit ook kunnen gebruiken voor misdaadbestrijding…? Zit het dark web ook in de trainingsdata?

7.3 (j) AI gebruiken om scripties te schrijven

ChatGPT is op controversiële wijze gebruikt door studenten om essays te schrijven. Dit heeft geleid tot bezorgdheid onder docenten die moeite hebben om AI-gegenereerd werk te identificeren. Naarmate AI geavanceerder wordt, wordt het steeds moeilijker om door AI gegenereerde inhoud te detecteren, wat vragen oproept over academische integriteit. Algemeen probleem: AI in de onderwijscontext.

7.4 – Toekomstperspectieven

Ondanks deze uitdagingen en ethische bezwaren heeft ChatGPT een enorm potentieel om het landschap van wetenschappelijk onderzoek verder te transformeren. Enkele toekomstperspectieven zijn (verkorte lijst, details weggelaten): verbeterde AI-modellen, interdisciplinair onderzoek, democratisering van wetenschappelijk onderzoek, verbeterd taalbegrip, personalisatie, meertalige mogelijkheden, real-time toepassingen, integratie met andere technologieën, beter begrip van context, beter vermogen om met emoties om te gaan, samenwerking met menselijke experts, meer creativiteit, voortdurend leren, betere ethische kaders, domeinspecifieke modellen, verbeterd contextueel begrip, vermindering van vertekeningen en eerlijkheid, efficiënte modelarchitecturen, uitlegbare AI, multimodale integratie, veiligheids- en beveiligingsmaatregelen.

De toekomstperspectieven voor ChatGPT en andere AI-taalmodellen zijn opwindend (stel je voor dat we alle problemen kunnen oplossen…)(heeft ook iets van porno) en gevarieerd (zie de lijsten hierboven), met het potentieel (voorbarieg extrapolatie) om een revolutie (in elk geval opschudding) teweeg te brengen in tal van domeinen en toepassingen. Terwijl onderzoekers bestaande uitdagingen aanpakken en nieuwe mogelijkheden verkennen, zullen de mogelijkheden en voordelen van AI-taalmodellen blijven groeien (neoliberale groeiverslaving), waardoor de weg wordt vrijgemaakt voor meer geavanceerde en verantwoorde AI-gedreven technologieën (nog meer groeiverslaving).

Een vreemd stuk, deze subsectie 4. Het lijkt wel alsof alle hoger aangehaalde problemen hier netjes zijn verzameld en omgedraaid, om ze dan te presenteren als toekomstperspectieven. Gezien de actuele toestand van ICT in de maatschappij, en het feit dat problemen niet kunnen worden opgelost door wie ze veroorzaakt heeft, zie ik weinig perspectieven, tenzij in de richting van een afgrond.


8. Ethiek in de informatica en de uitdagingen van ChatGPT

Ethiek in de computerwetenschap (een wetenschappelijk studie-onderwerp??) is een veelzijdig onderwerp dat zich richt op de morele en ethische overwegingen die samenhangen met de ontwikkeling, de inzet en het gebruik van computertechnologieën, waaronder AI-taalmodellen zoals ChatGPT. Het is essentieel om ervoor te zorgen dat deze technologieën worden ontworpen en gebruikt op manieren die in overeenstemming zijn met menselijke waarden en die het welzijn van individuen en de samenleving als geheel bevorderen. Dit klinkt als een verklaring van de VN; doorgaans terecht, maar met een minieme kans om effect te sorteren, als gevolg van dwarsliggende belanghebbenden. Enkele belangrijke aspecten van ethiek in de computerwetenschap, zoals eerder besproken, zijn (de meeste van deze aspecten komen ook voor in de lijsten hierboven):

  • privacy en bescherming van gegevens, waarbij ervoor wordt gezorgd dat er op verantwoorde wijze wordt omgegaan met gevoelige informatie; Zolang we toelaten dat softwareleveranciers hun producten eigenhandig van op afstand bijwerken, en dus in andermans systeem kunnen ingrijpen, zullen die toegangen ook door kwaadwillenden gebruikt worden.
  • vooringenomenheid en eerlijkheid, waarbij de nadruk ligt op het belang van het creëren van AI-systemen die rechtvaardig en onbevooroordeeld zijn; Zie hoger.
  • transparantie en verantwoordingsplicht, waarbij de nadruk ligt op de noodzaak dat AI-systemen begrijpelijk zijn en dat ontwikkelaars verantwoordelijk zijn voor hun handelingen; Zie hoger.
  • gevolgen voor de werkgelegenheid, waarbij de bezorgdheid over het feit dat AI-technologieën menselijke banen verdringen, aan de orde komt; Ik weet niet of dit een thema moet zijn. Als AI verantwoord wordt toegepast (wat gezien alle hoger aangehaalde problemen nog niet het geval is), kan het zijn plaats hebben in de maatschappij, en wordt het één van die ontwikkelingen die de arbeidsmarkt veranderen, deels ten kwade, deels ten goede. Dat ChatGPT in zijn huidige vorm een bedreiging zou vormen voor banen vind ik inderdaad ethisch ontoelaatbaar.
  • emotionele manipulatie en overtuiging: voorkomen dat AI-inhoud wordt misbruikt om emoties van mensen uit te buiten; Dan kunnen we meteen ook de reclame afschaffen? De reductie van een dergelijk probleem tot één kanaal is een garantie op het voortbestaan ervan.
  • afhankelijkheid van AI-inhoud: een evenwichtige benadering van het gebruik van AI-inhoud bevorderen; Vaag.
  • autonomie van AI-systemen: passende grenzen vaststellen voor AI-besluitvorming en -controle; Richtlijnen op dat vlak zijn zeker nuttig, maar ik denk niet dat de techsector zal toelaten dat autonome systemen worden gecreëerd die ze zelf niet meer controleren (ook al dreigen ze daarmee, als middel om overheden mee in het bad te trekken; zie Wat als AI de mens inhaalt?).
  • gevolgen voor creatieve industrieën: de waarde van menselijke creativiteit behouden en tegelijkertijd AI-capaciteiten benutten; Het benutten van AI-capaciteiten in de creatieve industrie creëert een andere industrie; het is te hopen dat producten uit de ene niet worden gesleten als producten uit de andere. Ik durf geen voorspelling te doen over de verdere evolutie daarvan. Het Romeinse Rijk is ook aan iets ten onder gegaan.
  • ethisch gebruik van AI-gegenereerde inhoud, waarbij richtlijnen en beste praktijken worden vastgesteld voor verantwoord gebruik in verschillende contexten; Zie hoger: idem voor telefoons, pistolen, cryptogeld, panelgesprekken en keukenmessen.
  • AI-gegenereerde inhoud in onderwijs en opleiding waarbij de nauwkeurigheid, oordeelvrijheid en hoge kwaliteit worden gewaarborgd; Nog veel werk aan de winkel. Blijft wel de vraag, los van AI, of de huidige digitalisering van het onderwijs ethisch verantwoord is, vermits we jongeren opleiding tot het niveau van robots.
  • deepfake-tekst en onjuiste voorstelling van zaken, aanpakken van de mogelijkheid dat AI-gegenereerde inhoud valse verhalen creëert of zich voordoet als anderen; Zie twee punten hoger.
  • ongelijke toegang tot AI-technologie, ervoor zorgen dat de voordelen van AI voor iedereen toegankelijk zijn en niet onevenredig ten goede komen aan bepaalde groepen; Laat de mensen toch gerust.
  • intellectueel eigendom en auteurschap, bepalen van eigendoms- en auteursrechten voor door AI gegenereerde inhoud; Schoon schip maken: ook veel werk aan de winkel.
  • erosie van vertrouwen in digitale communicatie, ontwikkelen van methoden om de authenticiteit van digitale inhoud te verifiëren; Goed idee.
  • AI in sociale media en onlineplatforms, bevorderen van een gezond onlinediscours en het welzijn van gebruikers; Sociale media afschaffen. De pest is ook uitgeroeid geraakt.
  • culturele en taalkundige vooroordelen, mogelijke vooroordelen in door AI gegenereerde inhoud aanpakken; Zie hoger.
  • ethische ontwikkeling van toekomstige AI-systemen, een ethisch gefundeerde benadering van AI-ontwikkeling handhaven; Begin er maar aan. Ideaal zou zijn als dit als eerste kon gerealiseerd worden. Handhaven is mogelijk het moeilijkste deel.
  • digitale kloof en toegang tot technologie, werken aan het overbruggen van de kloof in toegang tot digitale bronnen en AI-technologieën. Laat de mensen toch gerust.

We bespreken kort verschillende aspecten in deze context.

8.1 – Ethiek in computerwetenschappen

8.1 (a) Professionaliteit en gedragscodes – Professionaliteit in de informatica houdt in dat men zich houdt aan ethische normen en best practices bij het ontwerpen, ontwikkelen en implementeren van computersystemen en software. Professionele organisaties, zoals de Association for Computing Machinery (ACM) en het Institute of Electrical and Electronics Engineers (IEEE), bieden gedragscodes om computerprofessionals te begeleiden bij het nemen van verantwoorde beslissingen en het handhaven van de hoogste integriteitsnormen. Zie ACM Code of Ethics and Professional Conduct (meest uitgebreid) en IEEE Code of Ethics.

8.1 (b) Duurzaamheid en milieu-impact – De milieu-impact van computertechnologieën, met inbegrip van energieverbruik, elektronisch afval en koolstofemissies, is een belangrijke ethische kwestie. Dat zie ik niet. Eerder een klimaatprobleem, zou ik denken. Te veel is te veel. De techbonzen zullen het leuk vinden dat dit wordt gezien als een ethisch probleem dat ten bate van economische groei op de lange baan geschoven wordt. Het ontwikkelen van duurzame, energie-efficiënte hardware- en softwareoplossingen, het bevorderen van recyclingen verantwoorde verwijdering van elektronisch afval, en het rekening houden met de levenscyclus van producten zijn essentiële aspecten van het aanpakken van de milieu-impact van computerwetenschap. Oeps? Wat heeft dit met computerwetenschap te maken? Het is wel de computerindustrie die de wereld leegzuigt, niet de wetenschap; door de wetenschap te vermelden blijft de industrie buiten schot. Verder stelt dit probleem zich evengoed in andere markten, bv. fast fashion en voeding, dus dat probleem wordt best in zijn geheel aangepakt.

8.1 (c) Kunstmatige intelligentie en machine-ethiek – Naarmate AI-systemen geavanceerder worden, ontstaan er ethische overwegingen die specifiek zijn voor AI en machinaal leren. Machine-ethiek omvat het ontwikkelen van AI-systemen die op één lijn liggen met menselijke waarden, ethisch gedrag vertonen (oeps?) en moreel te rechtvaardigen beslissingen nemen. Dit omvat onderzoek naar de (1) afstemming van waarden, (2) verklaarbare AI en (3) de ontwikkeling van ethische kaders en richtlijnen voor AI-systemen. Hier zijn (2) en (3) nog de gemakkelijkste aspecten. Ik voorzie dat de analyse naar de afstemming van waarden zal uitdraaien op de constatering dat in heel wat niet-AI-beslissingen de doorslaggevende waarden niet deugen. En ik vrees dat dit een rem zal zijn op ontwikkelingen rond waarden in AI-systemen. Dus zoals hierboven: globaal aan te pakken.

8.1 (d) Digitaal burgerschap en cyberpesten – Digitaal burgerschap verwijst naar het verantwoordelijke, ethische en veilige gebruik van technologie door individuen. Een van de ethische uitdagingen in verband met digitaal burgerschap is het aanpakken van cyberpesten, online intimidatie en de negatieve effecten van sociale media op de geestelijke gezondheid (een rattenplaag bestrijdt je met vallen en vergif, niet met meer katten). Het bevorderen van digitale geletterdheid, online etiquette en verantwoordelijk gebruik van technologie zijn essentiële onderdelen van het aanpakken van deze uitdagingen. Begin er maar aan.

8.1 (e) Algoritmische transparantie en verantwoording – Algoritmische transparantie houdt in dat de processen, besluitvormingscriteria en aannames die ten grondslag liggen aan algoritmen duidelijk en begrijpelijk worden gemaakt voor gebruikers, regelgevers en andere belanghebbenden. Transparantie in algoritmische besluitvorming is essentieel om eerlijkheid te bevorderen, discriminatie te voorkomen en ontwikkelaars verantwoordelijk te houden voor de gevolgen van hun algoritmen. OK.

8.1 (f) Automatisering en werkgelegenheid – De toenemende automatisering van taken en banen door de vooruitgang in computerwetenschap en AI roept ethische vragen op over de mogelijke verdringing van menselijke werknemers en de effecten op de arbeidsmarkt. Om deze zorgen weg te nemen, moet er worden nagedacht over de maatschappelijke gevolgen van automatisering op de lange termijn (nadenken gaat niet helpen, automatisering beperken wel), moeten er strategieën worden ontwikkeld voor de omscholing en aanpassing van de beroepsbevolking (continue bekommernis van de maatschappij) en moet beleid worden bevorderd dat mensen ondersteunt die worden getroffen door technologische (?) werkloosheid. OK. Zie hoger.

8.1 (g) Open source en bedrijfseigen software – Het debat tussen open source en bedrijfseigen software draait om kwesties van intellectueel eigendom, toegankelijkheid en innovatie. Open source software bevordert transparantie, samenwerking en het vrij delen van ideeën, terwijl private software zich richt op het beschermen van intellectueel eigendom en het genereren van inkomsten. Het afwegen van de voor- en nadelen van deze benaderingen en het bevorderen van een divers software-ecosysteem is een essentiële ethische overweging in de computerwetenschap. OK.

8.1 (h) Nepnieuws en desinformatie – De verspreiding van nepnieuws en desinformatie via digitale kanalen, met name op sociale media, is een belangrijke ethische kwestie op het gebied van computerwetenschap. Industrie zeker? Het ontwikkelen van algoritmen en hulpmiddelen om de verspreiding van valse informatie op te sporen, te signaleren en te bestrijden, en tegelijkertijd de vrijheid van meningsuiting te behouden en censuur te vermijden, is een complexe ethische uitdaging die voortdurend onderzoek en samenwerking vereist. (1) Kwaadwillende individuen die hun acties op bepaalde kanalen gedwarsboomd zien door desinformatiebestrijding zullen hun frustratie wel op een andere manier spuien. (2) Een andere ethische vraag is of we het goed vinden dat zoveel middelen van de maatschappij opgaan aan voortdurend onderzoek en samenwerking bij het dweilen met de kraan open. Misschien proberen we beter enkele kranen te dichten. Maar dat is waarschijnlijk utopisch? Het wegwerken van negativiteit werkt nochtans veel beter dan het toevoegen van positiviteit. Stof voor een ander artikel.

8.1 (i) Digitale censuur en vrijheid van meningsuiting – Ethische kwesties met betrekking tot digitale censuur en vrijheid van meningsuiting ontstaan wanneer overheden of privé-entiteiten de toegang tot informatie beperken, de gegevensstroom controleren of de online uiting van ideeën onderdrukken. Ervoor zorgen dat het internet een platform blijft voor de vrije uitwisseling van ideeën en tegelijkertijd rekening houden met legitieme zorgen over veiligheid, privacy en schadelijke inhoud is een belangrijke ethische uitdaging in de computerwetenschappen. Weer die wetenschappen. Maar OK.

8.1 (j)  Inclusiviteit en representatie bij de ontwikkeling van technologie – Inclusiviteit en representatie houden in dat er bij de ontwikkeling en het gebruik van technologie rekening wordt gehouden met verschillende perspectieven en ervaringen. Dit omvat het aanpakken van kwesties met betrekking tot geslacht, ras, etniciteit en sociaaleconomische status in de technologiesector, evenals het bevorderen van diversiteit in het ontwerp- en ontwikkelingsproces. Het bevorderen van inclusiviteit en representatie kan ervoor zorgen dat computersystemen en -software rechtvaardiger en toegankelijker worden en beter aansluiten op de behoeften van alle gebruikers. Daar zit iets in. Of dat via inclusiviteit moet en kan is een andere vraag.

8.1 (k) Netneutraliteit en gelijke toegang tot informatie – Netneutraliteit is het principe dat internet service providers (ISP's) alle gegevens op het internet gelijk moeten behandelen, zonder te discrimineren of kosten in rekening te brengen op basis van inhoud, gebruiker, platform of toepassing. Het waarborgen van netneutraliteit is een essentiële ethische overweging in de informatica, omdat het gelijke toegang tot informatie bevordert, innovatie stimuleert en voorkomt dat ISP's de gegevensstroom onrechtmatig beïnvloeden. Gebrekkige aspectscheiding! Gelijke toegang tot het internet is één ding, netbelasting is een ander. Het lijkt mij verdedigbaar dat belasting in volume wordt betaald.

8.1 (l) Mens-computerinteractie en gebruikerservaring – Ethische overwegingen bij het ontwerpen van mens-computerinteractie (HCI) en gebruikerservaring (UX) hebben betrekking op het creëren van computersystemen en software die niet alleen functioneel en efficiënt zijn, maar ook het welzijn en de waardigheid van gebruikers bevorderen. Dit omvat het overwegen van de mogelijke psychologische, sociale en emotionele impact van technologie en ervoor zorgen dat deze wordt ontworpen met empathie, respect en begrip voor menselijke behoeften en waarden. Dat gaat wel ver?! Als we nu eens beginnen met de fouten eruit te halen; zie ICT-ellende.

8.1 (m) Het recht om te worden vergeten – Het recht om vergeten te worden is een ethisch principe dat individuen toestaat om de verwijdering van persoonlijke informatie uit zoekresultaten of websites op het internet aan te vragen, vooral wanneer de informatie verouderd of niet langer relevant is (of om ongewenst gebruik te voorkomen). Het in evenwicht brengen van het recht om te worden vergeten met de behoefte aan nauwkeurige registratie, transparantie en verantwoordingsplicht is een belangrijke ethische uitdaging in de informatica. Zie GDPR. KBC: "Dit gesprek kan voor trainingsdoeleinden worden opgeslagen, en gedurende tien jaar worden bijgehouden…".

8.1 (n) Bewaking en inbraak door de overheid – Het toenemende gebruik van computertechnologie voor bewakingsdoeleinden door overheden en andere instanties roept ethische vragen op over de privacy van het individu, overheidsinmenging en de mogelijkheid van machtsmisbruik. Het vinden van een evenwicht tussen de behoefte aan veiligheid en de bescherming van individuele rechten en vrijheden is een kritieke ethische uitdaging in het digitale tijdperk. Zie Ik weet wie je bent en wat je doet.

8.1 (o) Privacy en gegevensbescherming – Privacy heeft betrekking op de bescherming van persoonlijke informatie en het recht van individuen om te bepalen hoe hun gegevens worden verzameld, opgeslagen en gebruikt. Met de toenemende hoeveelheid persoonlijke gegevens die door computersystemen worden opgeslagen en verwerkt, is de bescherming van de privacy van gebruikers een kritieke ethische kwestie geworden. Heeft er dan echt nog niemand aan gedacht die opslag en verwerking te verbieden?

8.1 (p) Cyberoorlogvoering en internationale veiligheid – Cyberoorlogvoering verwijst naar het gebruik van computertechnologie om de informatiesystemen, infrastructuur of hulpbronnen van andere landen of organisaties te verstoren, beschadigen of compromitteren. Als installaties online bereikbaar moeten zijn voor werknemers, dan zijn ze ook bereikbaar voor hackers. Ethische overwegingen bij cyberoorlogvoering omvatten de ontwikkeling en het gebruik van offensieve en defensieve cybercapaciteiten, de mogelijkheid van bijkomende schade en het vaststellen van internationale normen en overeenkomsten om het gedrag van staten in cyberspace te regelen. Ethiek en oorlogsvoering gaan niet samen; zie de recente gevallen in Oekraïne en Gaza.

8.1 (q) – Eigendom van gegevens en het genereren van inkomsten – Eigendom van gegevens en het genereren van inkomsten hebben betrekking op het bepalen wie het recht heeft op toegang tot, gebruik van en winst uit de gegevens die door individuen of organisaties worden gegenereerd. Ethische uitdagingen op dit gebied betreffen het balanceren van de rechten en belangen van datamakers, datasubjecten en dataverwerkers, evenals het aanpakken van kwesties die verband houden met datacommodificatie, toestemming en transparantie. Ja, ja… Voorlopig trrekt de techsector aan het langste eind.

8.1 (r) Digitale verslaving en geestelijke gezondheid – Naarmate technologie ruimer beschikbaar en boeiender wordt, ontstaan er zorgen over het potentieel voor digitale verslaving en de impact van technologiegebruik op de geestelijke gezondheid. Ethische overwegingen op dit gebied omvatten onder meer het ontwerp en de promotie van technologieën die gezonde gebruikspatronen bevorderen (en het mijden van technologie die schade veroorzaakt??), het bieden van ondersteuning en middelen voor mensen die getroffen zijn door digitale verslaving (er zijn nu al psychologen tekort), en onderzoek naar de psychologische effecten van technologiegebruik (en benzodiazepines).

8.1 (s) Online anonimiteit en privacy – Online anonimiteit verwijst naar het vermogen van individuen om deel te nemen aan digitale activiteiten zonder hun ware identiteit prijs te geven (om redenen van  …??). Hoewel anonimiteit de privacy kan beschermen en de vrije meningsuiting kan bevorderen, kan het ook schadelijk gedrag mogelijk maken, zoals trollen, cyberpesten of criminele activiteiten. Het balanceren van de voordelen en risico's van online anonimiteit is een complexe ethische uitdaging in de informatica (om redenen van …??).

8.1 (t) Algoritmische eerlijkheid en discriminatie – Naarmate algoritmen de besluitvorming op verschillende domeinen steeds meer beïnvloeden, zijn de zorgen over algoritmische eerlijkheid en discriminatie steeds prominenter geworden. Ethische overwegingen op dit gebied houden onder meer in dat ervoor moet worden gezorgd dat algoritmen bepaalde individuen of groepen niet op oneerlijke wijze benadelen op basis van factoren zoals ras, geslacht of sociaal-economische status, en dat er methoden moeten worden ontwikkeld om de eerlijkheid van algoritmische besluitvormingsprocessen te controleren en te evalueren. Helemaal mee eens.

8.1 (u) De ethiek van big data en datamining – De snelle groei van big data en datamining heeft geleid tot nieuwe ethische uitdagingen met betrekking tot het verzamelen, analyseren en gebruiken van enorme datasets. Tot deze uitdagingen behoren onder meer het garanderen van geïnformeerde toestemming, het beschermen van de privacy, het voorkomen van misbruik van gegevens en het aanpakken van de mogelijkheden voor toezicht en discriminatie die kunnen voortkomen uit de aggregatie en analyse van grootschalige gegevens. Rommel in is rommel uit. Het gevaar van big data is evenredig met de kwaliteit van de small data, waar weinigen zich om bekommeren.

8.1 (v) Globalisering en culturele gevoeligheid – Naarmate technologie mondiaal meer met elkaar verbonden raakt, worden ethische overwegingen die verband houden met globalisering en culturele gevoeligheid steeds belangrijker. Deze overwegingen houden in dat ervoor moet worden gezorgd dat technologie diverse culturele waarden, normen en gewoonten respecteert en accommodeert, en dat zij intercultureel begrip en samenwerking bevordert in plaats van culturele verschillen of spanningen te verergeren. Ik huiver van het idee dat het accorderen van normen en waarden uit verschillende culturen, en het bevorderen van intercultureel begrip en samenwerking, zou worden overgelaten aan de techsector.

8.1 (w) (het loopt op z'n einde) Beveiliging en vertrouwen – Computerbeveiliging omvat het beschermen van systemen, netwerken en gegevens tegen ongeoorloofde toegang, manipulatie of vernietiging. Het waarborgen van de betrouwbaarheid en integriteit van computersystemen is een essentiële ethische verantwoordelijkheid voor zowel ontwikkelaars als gebruikers. Oplossing: de techsector nationaliseren.

8.1 (x) Intellectueel eigendom – Intellectueel eigendom verwijst naar de wettelijke rechten die het eigendom en gebruik van creatieve werken, uitvindingen en andere vormen van immateriële eigendom beschermen. Bij ethische overwegingen in de informatica gaat het om het vinden van een evenwicht tussen de bescherming van intellectuele-eigendomsrechten en het bevorderen van innovatie, en om het aanpakken van kwesties als softwarepiraterij en plagiaat. OK.

8.1 (y) Toegankelijkheid en universeel ontwerp – Toegankelijkheid omvat het ontwerpen van computersystemen en software die bruikbaar zijn door mensen met verschillende capaciteiten en handicaps. Universeel ontwerp verwijst naar de ontwikkeling van producten en omgevingen die door alle mensen kunnen worden gebruikt, ongeacht leeftijd, grootte of vaardigheid. Ervoor zorgen dat technologie toegankelijk en inclusief is, is een belangrijke ethische verantwoordelijkheid in de informatica. Niks nieuws onder de zon.

8.1 (z) Digitale kloof en sociale ongelijkheid – De digitale kloof verwijst naar de kloof tussen degenen die toegang hebben tot moderne informatie- en communicatietechnologie en degenen die dat niet hebben. Het aanpakken van deze kloof en het bevorderen van gelijke toegang tot technologie is een belangrijke ethische overweging in de informatica. Waarom zou iedereen toegang moeten hebben? Het lijkt mij niet OK dat toegang tot ICT een voorwaarde zou zijn voor welzijn. Eerder omgekeerd.

Het alfabet was net op?! Of hebben ze nog een paar ethische kwesties weggelaten? Zou mij niet verbazen.

8.2 – ChatGPT's uitdaging voor de huidige computerethiek

De "huidige" computerethiek? Betekent dit dat wordt overwogen om de computerethiek aan te passen aan ChatGPT? Dat zou wel heel straf zijn. ChatGPT biedt als geavanceerd AI-taalmodel een verscheidenheid aan ethische uitdagingen die moeten worden overwogen en aangepakt om de verantwoorde ontwikkeling en het verantwoorde gebruik ervan te garanderen. Enkele van de belangrijkste ethische uitdagingen die ChatGPT stelt, gebaseerd op de eerdere discussies, zijn onder meer (zonder commentaar, wegens herhaling):

  • gegevensprivacy en -bescherming: bescherming van gevoelige informatie verzameld en gebruikt door AI-modellen zoals ChatGPT;
  • vooringenomenheid en eerlijkheid: ervoor zorgen dat door AI gegenereerde inhoud billijk en onbevooroordeeld is en verschillende perspectieven en ervaringen weerspiegelt;
  • transparantie en verantwoording: AI-systemen begrijpelijk maken en ontwikkelaars verantwoordelijk houden voor hun actie;
  • emotionele manipulatie en overreding: voorkomen dat door AI gegenereerde inhoud de emoties van mensen uitbuit voor kwaadaardige doeleinden;
  • afhankelijkheid van door AI gegenereerde inhoud: het aanmoedigen van een evenwichtige en verantwoorde consumptie van door AI gegenereerde inhoud;
  • impact op creatieve industrieën: het balanceren van het gebruik van AI-capaciteiten met het behoud van menselijke creativiteit en waarde;
  • ethisch gebruik van door AI gegenereerde inhoud: het opstellen van richtlijnen en beste praktijken voor het verantwoord gebruik van door AI gegenereerde inhoud in verschillende contexten;
  • deepfake tekst en verkeerde voorstelling van zaken: het aanpakken van de mogelijkheid dat door AI gegenereerde inhoud valse verhalen creëert of individuen nabootst;
  • ongelijke toegang tot AI-technologie: ervoor zorgen dat de voordelen van AI voor iedereen toegankelijk zijn en bepaalde groepen niet onevenredig bevoordelen;
  • intellectuele eigendom en auteurschap: het vaststellen van eigendom en auteursrechten voor door AI gegenereerde inhoud;
  • erosie van het vertrouwen in digitale communicatie: het ontwikkelen van methoden om de authenticiteit van digitale inhoud te verifiëren en de transparantie bij de creatie ervan te bevorderen;
  • AI in sociale media en online platforms : het bevorderen van een verantwoord gebruik van AI-systemen op deze platforms en het bevorderen van een gezond online discours;
  • culturele en taalkundige vooroordelen: het aanpakken van potentiële vooroordelen in door AI gegenereerde inhoud en het bevorderen van culturele en taalkundige diversiteit, en
  • de digitale kloof en toegang tot technologie: werken aan het overbruggen van de kloof in de toegang tot digitale bronnen en AI-technologieën, en het bevorderen van digitale geletterdheid en empowerment.

We geven een kort overzicht van hoe ChatGPT uitdagingen kan opleggen in de huidige computerethiek.

8.2 (a) Vertekening en eerlijkheid – Aangezien ChatGPT wordt getraind op enorme hoeveelheden gegevens van het internet, kan het vooroordelen die aanwezig zijn in de trainingsgegevens absorberen en verspreiden. Dit kan resulteren in output die discriminerend is of stereotypen versterkt. Om dit probleem te beperken, is het essentieel om strategieën te ontwikkelen om AI-modellen te oordeelvrij te maken en eerlijkheidsbewuste algoritmen te implementeren.

8.2 (b) Privacy, veiligheid en desinformatie – Het vermogen van ChatGPT om mensachtige tekst te genereren roept zorgen op over privacy en veiligheid, omdat gevoelige gebruikersgegevens onbedoeld openbaar gemaakt of misbruikt kunnen worden. Bovendien zou ChatGPT kunnen worden gebruikt om deep fakes of andere vormen van verkeerde informatie te creëren, waardoor de bezorgdheid over betrouwbaarheid en integriteit van digitale inhoud nog groter wordt. Om deze zorgen weg te nemen, zijn robuuste gegevensbeschermingsmaatregelen en -mechanismen nodig om misbruik van de technologie te voorkomen.

8.2 (c) – Verantwoordingsplicht en verantwoordelijkheid – De geavanceerde aard van ChatGPT kan het moeilijk maken om de verantwoordingsplicht en verantwoordelijkheid vast te stellen wanneer er fouten worden gemaakt of schade wordt aangericht. Naarmate AI-systemen autonomer worden, wordt de vraag of ontwikkelaars, gebruikers of de AI zelf verantwoordelijk moeten worden gehouden voor onbedoelde gevolgen steeds complexer. Het ontwikkelen van duidelijke richtlijnen en wettelijke kaders kan helpen om deze uitdaging aan te gaan.

8.2 (d) Autonomie en menselijk handelen – Het vermogen van ChatGPT om mensachtige reacties te genereren roept vragen op over de impact van AI-systemen op de menselijke autonomie en zeggenschap. Ervoor zorgen dat AI-systemen de menselijke besluitvormingsprocessen niet ondermijnen en dat individuen controle houden over hun keuzes en handelingen is een cruciaal ethisch punt. Dit houdt in dat transparantie, uitlegbaarheid en gebruikersgericht ontwerp bij de ontwikkeling van AI moeten worden bevorderd.

8.2 (e) Emotionele manipulatie en overtuiging – Geavanceerde AI-taalmodellen zoals ChatGPT kunnen inhoud genereren die zeer overtuigend of emotioneel resonerend is. Dit vermogen roept ethische bezwaren op over het potentieel voor manipulatie, aangezien AI-gegenereerde inhoud kan worden gebruikt om de emoties van mensen uit te buiten, hun overtuigingen of gedrag te beïnvloeden of desinformatie te verspreiden. Ervoor zorgen dat AI-systemen op verantwoorde wijze worden ontworpen en gebruikt om dergelijk misbruik te voorkomen, is een belangrijke ethische uitdaging.

8.2 (f) Afhankelijkheid van door AI gegenereerde inhoud – Naarmate AI-taalmodellen geavanceerder worden en op grotere schaal worden gebruikt, bestaat het risico dat de afhankelijkheid van door AI gegenereerde inhoud voor communicatie, besluitvorming en informatieconsumptie toeneemt. Deze afhankelijkheid kan leiden tot een vermindering van kritisch denken (use it or lose it), creativiteit of de waardering voor door mensen gegenereerde inhoud. Om deze uitdaging aan te gaan moet een evenwichtige benadering van het gebruik van AI-gegenereerde inhoud worden bevorderd en mediageletterdheid worden gestimuleerd om gebruikers te helpen onderscheid te maken tussen menselijke en AI-gegenereerde inhoud.

8.2 (g) Autonomie van AI-systemen – De ontwikkeling van geavanceerde AI-systemen zoals ChatGPT roept vragen op over de juiste mate van autonomie die aan dergelijke systemen moet worden verleend. Naarmate AI-systemen beter in staat zijn om inhoud te genereren zonder menselijke tussenkomst, ontstaat bezorgdheid over het mogelijke verlies van controle en verantwoordelijkheid. Het ontwikkelen van richtlijnen en kaders om ervoor te zorgen dat AI-systemen binnen vooraf gedefinieerde grenzen opereren en de menselijke autoriteit niet ondermijnen, is een kritieke ethische uitdaging.

8.2 (h) Gevolgen voor de creatieve industrie – Het gebruik van AI-taalmodellen zoals ChatGPT in creatieve sectoren, zoals journalistiek, literatuur of reclame, kan traditionele creatieve processen en functies ontwrichten. Hoewel door AI gegenereerde inhoud de productiviteit en creativiteit kan verhogen, roept het ook ethische bezwaren op over de mogelijke devaluatie van menselijke creatieve arbeid en het risico dat door AI gegenereerde inhoud menselijke makers verdringt. Om deze zorgen weg te nemen moet er een balans worden gevonden tussen het benutten van AI-capaciteiten en het behouden van de waarde van menselijke creativiteit.

8.2 (i) Ethisch gebruik van door AI gegenereerde inhoud – Het wijdverbreide gebruik van AI-gegenereerde inhoud roept ethische vragen op over de geschikte contexten en toepassingen van dergelijke inhoud. Het gebruik van AI-gegenereerde inhoud in journalistiek of academisch onderzoek kan bijvoorbeeld vragen oproepen over authenticiteit, integriteit en de kans op plagiaat. Het opstellen van ethische richtsnoeren en beste praktijken voor het gebruik van AI-gegenereerde inhoud in verschillende contexten kan deze zorgen helpen wegnemen en een verantwoord gebruik waarborgen.

8.2 (j) AI-gegenereerde inhoud voor onderwijs en opleiding – Het gebruik van door AI gegenereerde inhoud in onderwijs en opleiding brengt zowel kansen als ethische uitdagingen met zich mee. AI-gegenereerde inhoud kan gepersonaliseerd leren bevorderen en de toegang tot kennis vergemakkelijken, maar roept ook vragen op over de kwaliteit, nauwkeurigheid en mogelijke vooroordelen in AI-gegenereerd onderwijsmateriaal. Ervoor zorgen dat AI-gegenereerde inhoud die wordt gebruikt in onderwijs en opleiding nauwkeurig, onbevooroordeeld en van hoge kwaliteit is, is een essentiële ethische overweging.

8.2 (k) Deepfake-tekst en onjuiste voorstelling van zaken – Geavanceerde AI-taalmodellen zoals ChatGPT kunnen worden gebruikt om realistische, mensachtige tekst te genereren, wat kan leiden tot "deepfake tekst". Dit vermogen roept ethische vragen op over de mogelijkheid van verkeerde voorstelling van zaken, identiteitsdiefstal en het creëren van valse verhalen. Ervoor zorgen dat AI-gegenereerde inhoud verantwoord wordt gebruikt en methoden ontwikkelen om deepfake tekst te detecteren en te voorkomen zijn belangrijke ethische uitdagingen.

8.2 (l) Ongelijke toegang tot AI-technologie – De beschikbaarheid en het gebruik van geavanceerde AI-systemen zoals ChatGPT zijn niet gelijkmatig verdeeld over de wereldbevolking. Ongelijke toegang tot AI-technologie kan bestaande digitale kloven verergeren en nieuwe vormen van ongelijkheid creëren. Ervoor zorgen dat de voordelen van AI-technologie voor iedereen toegankelijk zijn en niet onevenredig ten goede komen aan bepaalde groepen of individuen is een essentiële ethische overweging.

8.2 (m) Intellectuele eigendom en auteurschap – Het gebruik van door AI gegenereerde inhoud roept vragen op over intellectueel eigendom en auteurschap. Naarmate AI-systemen zoals ChatGPT beter in staat worden om creatieve en originele inhoud te genereren, wordt het steeds ingewikkelder om te bepalen wie de auteur is en wie de rechten op de gegenereerde inhoud bezit. Het ontwikkelen van juridische kaders en ethische richtlijnen om deze vragen aan te pakken is een belangrijke uitdaging in het tijdperk van AI-gegenereerde inhoud.

8.2 (n) Erosie van vertrouwen in digitale communicatie – Naarmate AI-gegenereerde inhoud meer voorkomt en geavanceerder wordt, kan het voor gebruikers steeds moeilijker worden om onderscheid te maken tussen door mensen en door AI gegenereerde inhoud. Dit kan het vertrouwen in digitale communicatie aantasten, omdat gebruikers sceptisch kunnen worden over de authenticiteit of herkomst van de inhoud die ze online tegenkomen. Het ontwikkelen van methoden om de authenticiteit van digitale inhoud te verifiëren en transparantie in de creatie ervan te bevorderen is een belangrijke ethische uitdaging in de context van AI-taalmodellen zoals ChatGPT.

8.2 (o) AI in sociale media en online platforms – De integratie van AI-taalmodellen zoals ChatGPT in sociale media en online platforms brengt verschillende ethische uitdagingen met zich mee. Deze omvatten zorgen over het versterken van verkeerde informatie, het bevorderen van echokamers en het mogelijk maken van gerichte manipulatie of intimidatie. Ervoor zorgen dat AI-systemen op verantwoorde wijze worden ontworpen en gebruikt op deze platforms, met de nadruk op het bevorderen van een gezond online discours en het welzijn van gebruikers, is een cruciale ethische overweging.

8.2 (p) Culturele en linguïstische vooroordelen – AI-taalmodellen zoals ChatGPT worden getraind op grote datasets met tekst uit verschillende bronnen, waardoor culturele en linguïstische vooroordelen kunnen ontstaan in de gegenereerde inhoud. Deze vooroordelen kunnen stereotypen in stand houden, bepaalde groepen oneerlijk vertegenwoordigen of leiden tot bevooroordeelde besluitvorming. Om culturele en linguïstische vooroordelen in AI-systemen aan te pakken, moeten methoden worden ontwikkeld om dergelijke vooroordelen in zowel de trainingsgegevens als de gegenereerde inhoud te identificeren, te meten en te beperken.

8.2 (q) Ethische ontwikkeling van toekomstige AI-systemen – Naarmate AI-taalmodellen zoals ChatGPT zich verder ontwikkelen en geavanceerder worden, zullen er waarschijnlijk nieuwe ethische uitdagingen ontstaan. Om ervoor te zorgen dat de ontwikkeling van toekomstige AI-systemen ethisch onderbouwd blijft, is voortdurend onderzoek, samenwerking en betrokkenheid bij diverse belanghebbenden nodig, waaronder ethici, beleidsmakers en het bredere publiek.

8.2 (r) Digitale assistenten en privacyproblemen – De integratie van AI-taalmodellen zoals ChatGPT in digitale assistenten en stemgestuurde apparaten kan leiden tot privacyproblemen, omdat deze apparaten onbedoeld gevoelige persoonlijke informatie of gesprekken kunnen vastleggen. Om deze privacyproblemen aan te pakken, moeten robuuste gegevensbeschermingsmechanismen, een transparant gegevensverwerkingsbeleid en gebruikersvriendelijke privacycontroles worden ontwikkeld.

8.2 (s) AI-gegenereerde inhoud en geestelijke gezondheid – De toename van door AI gegenereerde inhoud kan bijdragen aan het verschijnsel "infobesitas", waarbij gebruikers overweldigd worden door de enorme hoeveelheid informatie die online beschikbaar is. Deze overdaad aan informatie kan negatieve gevolgen hebben voor de geestelijke gezondheid en het welzijn. Het aanmoedigen van een verantwoorde consumptie van AI-gegenereerde inhoud en het bevorderen van digitale welzijnspraktijken zijn belangrijke ethische overwegingen in de context van AI-taalmodellen zoals ChatGPT.

8.2 (t) Filterbellen en polarisatie – Het gebruik van AI-taalmodellen in aanbevelingssystemen voor inhoud kan onbedoeld bijdragen aan de vorming van filterbubbels en de polarisatie van overtuigingen en meningen van gebruikers. Deze systemen kunnen voorrang geven aan AI-gegenereerde inhoud die de bestaande opvattingen van gebruikers versterkt, in plaats van hen bloot te stellen aan verschillende perspectieven. Om deze uitdaging aan te gaan moeten AI-systemen worden ontworpen die diversiteit, empathie en begrip voor verschillende standpunten bevorderen.

8.2 (u) Bedreigingen voor cyberbeveiliging – De mogelijkheden van AI-taalmodellen zoals ChatGPT kunnen worden misbruikt door kwaadwillende actoren om geavanceerde phishingaanvallen, desinformatiecampagnes of andere cyberbeveiligingsbedreigingen te creëren. Ervoor zorgen dat AI-gegenereerde inhoud op verantwoorde wijze wordt gebruikt en methoden ontwikkelen om deze bedreigingen op te sporen en tegen te gaan zijn belangrijke ethische uitdagingen waar rekening mee moet worden gehouden.

8.2 (v) Invloed op menselijke relaties en communicatie – Naarmate AI-gegenereerde inhoud algemener wordt, kan het de manier waarop mensen met elkaar communiceren en interageren beïnvloeden. Dit roept ethische vragen op over de mogelijke ontmenselijking van communicatie en de erosie van empathie en authentieke verbondenheid in menselijke relaties. Het stimuleren van een verantwoord gebruik van AI-gegenereerde inhoud en het bevorderen van digitale communicatiepraktijken die menselijke verbinding voorop stellen, zijn essentiële ethische overwegingen.

8.2 (w) Onbedoelde gevolgen en misbruik – Naarmate AI-taalmodellen zoals ChatGPT geavanceerder en toegankelijker worden, neemt het risico op onbedoelde gevolgen en misbruik toe. Dit kan de ontwikkeling inhouden van AI-systemen die schadelijke inhoud genereren of illegale activiteiten mogelijk maken. Om deze risico's aan te pakken moet AI-gegenereerde inhoud voortdurend worden gecontroleerd, moeten belanghebbenden samenwerken om misbruik te voorkomen en moeten robuuste juridische en ethische kaders worden ontwikkeld om een verantwoord gebruik van AI-technologie te sturen.

8.2 (x) Verantwoording en transparantie – Het gebruik van door AI gegenereerde inhoud roept vragen op over verantwoordingsplicht en transparantie, met name wanneer AI-systemen beslissingen nemen of inhoud genereren met een aanzienlijke maatschappelijke impact. Ervoor zorgen dat AI-systemen transparant zijn in hun besluitvormingsprocessen en dat er een duidelijke verantwoordingsplicht is voor de gevolgen van hun acties is een kritieke ethische uitdaging.

8.2 (y) Regelgeving en beleidsontwikkeling – De snelle vooruitgang en wijdverspreide toepassing van AI-taalmodellen zoals ChatGPT vereisen de ontwikkeling van passende regelgeving en beleid om het gebruik ervan te sturen. Hierbij moet een evenwicht worden gevonden tussen innovatie en technologische vooruitgang enerzijds en ethische overwegingen, de bescherming van individuele rechten en de bevordering van maatschappelijk welzijn anderzijds. Het betrekken van verschillende belanghebbenden bij het beleidsontwikkelingsproces en het bevorderen van internationale samenwerking zijn essentieel voor het aanpakken van de ethische uitdagingen die AI-gegenereerde inhoud met zich meebrengt.

8.2 (z) Digitale kloof en toegang tot technologie – De digitale kloof verwijst naar de kloof tussen individuen, huishoudens of gemeenschappen met betrekking tot hun toegang tot informatie- en communicatietechnologie (ICT), waaronder computers, internet en andere digitale hulpmiddelen. Deze kloof kan het gevolg zijn van verschillende factoren, zoals inkomen, opleiding, geografische locatie en beschikbaarheid van infrastructuur. De digitale kloof kan sociale, economische en educatieve ongelijkheden verergeren, wat leidt tot ongelijkheid in kansen, middelen en algehele toegankelijkheid.

Oeps? Weer net lang genoeg?! Of hebben ze ook hier nog ethische kwesties weggelaten?

9. Vertekeningen en beperkingen van ChatGPT

ChatGPT is, net als andere AI-taalmodellen, gevoelig voor verschillende biases, waaronder gender-, raciale en culturele biases, taalvooroordelen en ideologische vooroordelen. Deze vooroordelen komen voort uit de trainingsgegevens van het model, die door mensen gegenereerde inhoud van het internet weerspiegelen. Andere vertekeningen, zoals aandachts-, formaat- en commerciële vertekeningen, kunnen ook voortkomen uit de aard van de trainingsgegevens. ChatGPT heeft de volgende vooroordelen:

  • gender-, raciale en culturele biases,
  • taalbias,
  • ideologische bias,
  • sensatie- en clickbaitbias,
  • bevestigingsbias,
  • tijdsbias,
  • uitsluitingsbias,
  • commerciële bias,
  • cognitieve bias,
  • aandachtsbias,
  • formaatbias,
  • source bias,
  • novelty bias,
  • positive/negative sentiment bias,
  • outlier bias,
  • implicit bias,
  • authority bias,
  • recency bias,
  • groupthink bias,
  • anchoring bias,
  • availability bias,
  • false consensus bias,
  • hindsight bias.

Er zijn ook veel beperkingen:

  • inherente vertekeningen in trainingsgegevens,
  • onvolledige of verouderde kennis,
  • onvermogen om feitelijke juistheid te onderscheiden,
  • gebrek aan contextueel bewustzijn,
  • beperkingen in ethisch en moreel redeneren,
  • uitdagingen met betrekking tot lange conversatiecontexten,
  • onvermogen om visuele inhoud te genereren,
  • problemen met het afhandelen van ongepaste of schadelijke verzoeken,
  • problemen met het herkennen van en aanpassen aan de expertise van gebruikers,
  • beperkte emotionele intelligentie,
  • gebrek aan gepersonaliseerde feedback,
  • beperkte domeinspecifieke expertise,
  • onvermogen tot interactie met externe systemen,
  • moeite met het verwerken van meertalige query's,
  • moeite met niet-letterlijke taal,
  • beperkte creativiteit,
  • overgeneralisatie,
  • inconsistentie in kwaliteit,
  • energieverbruik en milieu-impact,
  • moeite met het vastleggen van menselijke intuïtie,
  • gebrek aan zelfbewustzijn,
  • benodigde middelen voor training en implementatie.

We bespreken ze kort in deze sectie.

9.1 – Vertekeningen

9.1 (a) Culturele en linguïstische vooringenomenheid – Omdat ChatGPT is getraind op gegevens die voornamelijk afkomstig zijn van het internet, kan het model bevooroordeeld zijn ten opzichte van bepaalde culturen, talen of perspectieven die online prominenter vertegenwoordigd zijn. Dit kan ertoe leiden dat het AI-model inhoud genereert die de diversiteit van menselijke ervaringen of talen niet nauwkeurig weerspiegelt.

9.1 (b) Vooroordelen over geslacht en ras – ChatGPT kan onbedoeld stereotypen over geslacht en ras bestendigen als gevolg van vooroordelen in de trainingsgegevens. Het model kan bijvoorbeeld bepaalde beroepen of rollen associëren met specifieke geslachten of etniciteiten, waardoor bestaande stereotypen worden versterkt.

9.1 (c) Vertekening in inhoudsaanbevelingen – Wanneer ChatGPT wordt gebruikt in aanbevelingssystemen, kan het vooroordelen vertonen door voorrang te geven aan inhoud die overeenkomt met de bestaande overtuigingen of voorkeuren van een gebruiker, wat mogelijk bijdraagt aan filterbubbels en polarisatie.

9.1 (d) Ideologische vooringenomenheid – ChatGPT kan een ideologische vooringenomenheid vertonen, die de dominante standpunten of meningen in de trainingsgegevens weerspiegelt. Dit kan leiden tot het genereren van inhoud die neigt naar specifieke politieke, sociale of economische ideologieën, waardoor bestaande vooroordelen worden versterkt of een onevenwichtige weergave van verschillende perspectieven ontstaat.

9.1 (e) Sensatiezucht en clickbait-vooringenomenheid – omdat ChatGPT is getraind op gegevens van het internet, kan het onbedoeld patronen aanleren die worden geassocieerd met sensatiezuchtige of clickbait-inhoud. Dit kan ertoe leiden dat het model aandachttrekkende koppen, overdrijvingen of andere vormen van sensatiezucht genereert in de inhoud die het produceert.

9.1 (f) Bevestigingsvooringenomenheid – ChatGPT kan onbedoeld een bevestigingsvooringenomenheid vertonen door inhoud te genereren die overeenkomt met reeds bestaande overtuigingen, aannames of stereotypen in de trainingsgegevens. Dit kan de diversiteit van perspectieven beperken en vooringenomen standpunten versterken.

9.1 (g) Temporele bias – ChatGPT kan een temporele bias vertonen, omdat het getraind is op gegevens uit specifieke periodes. Dit kan ertoe leiden dat het model inhoud genereert die de trends, overtuigingen of standpunten uit die tijd weerspiegelt, die mogelijk niet relevant of passend zijn voor de huidige context.

9.1 (h) Vooringenomenheid door uitsluiting – ChatGPT kan onbedoeld bepaalde groepen, gemeenschappen of perspectieven uitsluiten of marginaliseren die ondervertegenwoordigd zijn in de trainingsgegevens. Dit kan leiden tot inhoud die inclusiviteit mist en niet de ervaringen van alle gebruikers weerspiegelt.

9.1 (i) Commerciële vooringenomenheid – De trainingsgegevens van ChatGPT, die voornamelijk afkomstig zijn van het internet, kunnen een commerciële vooringenomenheid bevatten, omdat ze de doelen en belangen van commerciële entiteiten weerspiegelen. Dit kan ertoe leiden dat het model inhoud genereert die onbedoeld producten, diensten of merken promoot, zelfs als dit niet de bedoeling van de gebruiker is.

9.1 (j) Cognitieve vooringenomenheid – Omdat ChatGPT leert van door mensen gegenereerde inhoud, kan het onbedoeld verschillende cognitieve vooringenomenheden overnemen die aanwezig zijn in de trainingsgegevens. Deze vooroordelen kunnen tot uiting komen in de uitvoer van het model, wat kan leiden tot onjuiste redeneringen, aannames of generalisaties.

9.1 (k) Aandachtsvooringenomenheid – ChatGPT kan een aandachtsvooringenomenheid ontwikkelen, omdat het leert van inhoud die online meer aandacht of engagement heeft gekregen. Dit kan ertoe leiden dat het model voorrang geeft aan populaire of veelbesproken standpunten, waardoor minder gangbare perspectieven of ondervertegenwoordigde stemmen mogelijk worden overschaduwd.

9.1 (l) Format Bias – De trainingsgegevens van ChatGPT kunnen een format bias bevatten, omdat ze voornamelijk bestaan uit op tekst gebaseerde inhoud van het internet. Dit kan ertoe leiden dat het model minder bedreven is in het genereren van inhoud die andere vormen van communicatie weerspiegelt, zoals gesproken taal of non-verbale signalen.

9.1 (m) Vooringenomenheid ten aanzien van de bron – De trainingsgegevens van ChatGPT kunnen een vooringenomenheid ten aanzien van de bron bevatten, omdat het model leert van een verscheidenheid aan online bronnen die mogelijk niet even betrouwbaar, geloofwaardig of gezaghebbend zijn. Dit kan ertoe leiden dat het model inhoud genereert op basis van informatie uit minder betrouwbare bronnen of dat het onterecht gewicht toekent aan bepaalde bronnen.

9.1 (n) Novelty Bias – Omdat ChatGPT leert van de patronen en associaties die zijn gevonden in zijn trainingsgegevens, kan het een nieuwheidsbias vertonen door inhoud te genereren die meer lijkt op populaire of trending onderwerpen, waardoor mogelijk minder bekende of opkomende perspectieven over het hoofd worden gezien of worden gebagatelliseerd.

9.1 (o) Vertekening positief/negatief sentiment – ChatGPT kan onbedoeld een voorkeur ontwikkelen voor positief of negatief sentiment in de gegenereerde inhoud, gebaseerd op de prevalentie van dergelijk sentiment in de trainingsgegevens. Dit kan ertoe leiden dat het model inhoud genereert die neigt naar een overdreven optimistische of pessimistische kijk op bepaalde onderwerpen of situaties.

9.1 (p) Vooringenomenheid door uitschieters – De trainingsgegevens van ChatGPT kunnen vooringenomenheid door uitschieters bevatten, omdat het leert van ongebruikelijke of extreme voorbeelden die niet representatief zijn voor typische situaties of perspectieven. Dit kan ertoe leiden dat het model inhoud genereert die uitschieters benadrukt of overdrijft, waardoor het algemene begrip van een onderwerp mogelijk wordt vertekend.

9.1 (q) Impliciete vertekening – ChatGPT kan impliciete vertekeningen vertonen die niet expliciet aanwezig zijn in de trainingsgegevens, maar voortkomen uit de relaties tussen verschillende concepten en ideeën in de gegevens. Deze vooroordelen kunnen de inhoud die door het model wordt gegenereerd subtiel beïnvloeden, waardoor ze moeilijker te detecteren en aan te pakken zijn.

9.1 (r) Vertekening door autoriteit – ChatGPT kan een vertekening door autoriteit ontwikkelen door meer gewicht te geven aan inhoud of standpunten van bronnen die als gezaghebbend of invloedrijk worden gezien in de trainingsgegevens. Dit kan ertoe leiden dat het model voorrang geeft aan informatie van bekende personen of organisaties, waardoor waardevolle inzichten van minder prominente bronnen mogelijk over het hoofd worden gezien.

9.1 (s) Recency Bias – ChatGPT kan een recency bias vertonen door meer nadruk te leggen op recente of actuele gebeurtenissen, trends of overtuigingen in de gegenereerde inhoud. Dit kan ertoe leiden dat het model historische context over het hoofd ziet of de relevantie van ervaringen en kennis uit het verleden onderwaardeert.

9.1 (t) Vooringenomenheid door groepsdenken – ChatGPT kan onbedoeld een vooringenomenheid door groepsdenken aannemen door inhoud te genereren die de consensusstandpunten of meningen weerspiegelt die in de trainingsgegevens worden gevonden. Dit kan de diversiteit van perspectieven beperken en de verkenning van alternatieve of afwijkende standpunten belemmeren.

9.1 (u) Verankeringsvooringenomenheid – ChatGPT kan een verankeringsvooringenomenheid vertonen, die optreedt wanneer het model te veel nadruk legt op specifieke stukjes informatie of eerste indrukken uit de trainingsgegevens. Dit kan ertoe leiden dat het model inhoud genereert die overmatig wordt beïnvloed door bepaalde details of voorbeelden, wat mogelijk leidt tot vervormde of onevenwichtige perspectieven.

9.1 (v) Beschikbaarheidsbias – ChatGPT kan worden beïnvloed door beschikbaarheidsbias, wat verwijst naar de neiging om prioriteit te geven aan informatie die gemakkelijker kan worden herinnerd of die gemakkelijk beschikbaar is in de trainingsgegevens. Dit kan ertoe leiden dat het model inhoud genereert die te veel nadruk legt op veelvoorkomende of bekende voorbeelden, terwijl minder prominente maar even relevante informatie wordt genegeerd.

9.1 (w) Valse consensusbias – ChatGPT kan een valse consensusbias ontwikkelen door de mate waarin de trainingsgegevens een bredere consensus of gedeeld begrip vertegenwoordigen, te overschatten. Dit kan ertoe leiden dat het model inhoud genereert die uitgaat van een hogere mate van overeenstemming over bepaalde onderwerpen of standpunten dan feitelijk het geval is.

9.1 (x) Hindsight Bias – ChatGPT kan hindsight bias vertonen, wat optreedt wanneer het model de voorspelbaarheid of onvermijdelijkheid van gebeurtenissen in het verleden overschat op basis van de beschikbare informatie in de trainingsgegevens. Dit kan ertoe leiden dat het model inhoud genereert die een vertekend beeld geeft van historische gebeurtenissen of uitkomsten.

9.2 – Beperkingen

ChatGPT heeft verschillende beperkingen, waaronder inherente vertekeningen in de trainingsgegevens, onvolledige of verouderde kennis en problemen met het onderscheiden van feitelijke juistheid. Het model wordt ook geconfronteerd met uitdagingen op het gebied van contextueel bewustzijn, ethisch redeneren, gesprekscontext en het genereren van visuele inhoud. Bovendien kan ChatGPT moeite hebben met het afhandelen van ongepaste verzoeken, het aanpassen aan de expertise van gebruikers en het geven van gepersonaliseerde feedback. Beperkingen zijn ook problemen met meertalige query's, niet-letterlijke taal, creativiteit en consistentie in kwaliteit.

9.2 (a) Onnauwkeurige of misleidende informatie – ChatGPT kan inhoud genereren die onnauwkeurigheden of misleidende informatie bevat, omdat het is gebaseerd op de patronen en associaties die het heeft geleerd van zijn trainingsgegevens in plaats van een diepgaand begrip van het onderwerp.

9.2 (b) Gevoeligheid voor inputzinnen – De output van het model kan gevoelig zijn voor kleine veranderingen in de inputformulering, wat kan leiden tot inconsistente antwoorden of verschillende detailniveaus in de gegenereerde inhoud.

9.2 (c) Werkwoordelijkheid en overmatig gebruik van bepaalde zinnen – ChatGPT kan soms overdreven reacties geven of bepaalde zinnen te veel gebruiken, waardoor de gegenereerde inhoud repetitief of minder natuurlijk overkomt.

9.2 (d) Onvermogen om feiten te controleren of toegang te krijgen tot realtime informatie – De kennis van ChatGPT is beperkt tot de gegevens waarop het is getraind, met een einddatum in 2021. Als gevolg daarvan kan het geen real-time informatie verstrekken of de nauwkeurigheid van zijn antwoorden verifiëren aan de hand van nieuwe ontwikkelingen of updates.

9.2 (e) Moeilijkheden bij het verwerken van dubbelzinnige vragen – ChatGPT kan moeite hebben met dubbelzinnige vragen of vragen die een genuanceerd begrip van de context vereisen. In dergelijke gevallen kan het model inhoud genereren die plausibel klinkt, maar niet direct ingaat op de intentie van de gebruiker.

9.2 (f) Gebrek aan contextbewustzijn – ChatGPT genereert soms inhoud zonder contextueel bewustzijn of zonder rekening te houden met de bredere implicaties van een bepaald onderwerp. Dit kan resulteren in inhoud die oppervlakkig lijkt of geen rekening houdt met de complexiteit van real-world situaties.

9.2 (g) Ethisch en moreel redeneren – ChatGPT kan als taalmodel moeite hebben met ethisch of moreel redeneren. Het kan inhoud genereren die moreel dubbelzinnig is of niet voldoet aan ethische normen, waardoor het ongeschikt is voor bepaalde toepassingen zonder de juiste menselijke supervisie.

9.2 (h) Lange gesprekscontexten – ChatGPT kan moeite hebben met het behouden van samenhang en consistentie in lange gesprekscontexten of bij het reageren op een reeks vragen die met elkaar verbonden zijn. Dit kan leiden tot onsamenhangende of tegenstrijdige antwoorden die gebruikers in verwarring kunnen brengen.

9.2 (i) Het onvermogen om visuele inhoud te genereren – Als tekstgebaseerd AI-taalmodel kan ChatGPT geen visuele inhoud genereren, zoals afbeeldingen, video's of grafieken, waardoor de toepasbaarheid wordt beperkt bij het maken van multimedia-inhoud en visuele communicatietaken.

9.2 (j) Reactie op ongepaste of schadelijke verzoeken – ChatGPT kan moeite hebben met het consequent herkennen en afhandelen van ongepaste, schadelijke of beledigende input, waardoor mogelijk inhoud wordt gegenereerd die ethische richtlijnen of verwachtingen van gebruikers schendt.

9.2 (k) Moeilijkheden bij het herkennen van en aanpassen aan de expertise van gebruikers – Het is mogelijk dat ChatGPT de gegenereerde inhoud niet effectief aanpast aan het expertiseniveau of de bekendheid van de gebruiker met een specifiek onderwerp, wat kan resulteren in al te simplistische of al te technische antwoorden die mogelijk niet aansluiten bij de behoeften van de gebruiker.

9.2 (l) Beperkte emotionele intelligentie – Als AI-taalmodel heeft ChatGPT een beperkte emotionele intelligentie, wat kan resulteren in gegenereerde inhoud zonder empathie of die de emotionele context van een gebruikersvraag niet herkent en er niet adequaat op reageert.

9.2 (m) Gebrek aan gepersonaliseerde feedback – ChatGPT, als algemeen taalmodel, biedt mogelijk geen gepersonaliseerde feedback die is afgestemd op de behoeften of leerdoelen van individuele gebruikers. Dit kan de effectiviteit beperken in onderwijs- of coachingcontexten waar individuele begeleiding essentieel is.

9.2 (n) Beperkte domeinspecifieke expertise – Hoewel ChatGPT inhoud kan genereren over een breed scala aan onderwerpen, kan het de diepgaande kennis of expertise missen die gevonden wordt in domeinspecifieke AI-modellen. Dit kan het nut ervan beperken in gespecialiseerde domeinen of toepassingen waar nauwkeurigheid en precisie van het grootste belang zijn.

9.2 (o) Onvermogen tot interactie met externe systemen – ChatGPT is een op tekst gebaseerd AI-model en heeft niet de mogelijkheid om direct te communiceren met externe systemen, zoals databases, API's of andere software. Dit beperkt zijn mogelijkheden in toepassingen die real-time toegang tot informatie vereisen of de mogelijkheid om externe gegevens te manipuleren of te verwerken.

9.2 (p) Onvermogen om meertalige query's te verwerken – Hoewel ChatGPT tot op zekere hoogte in staat is inhoud in meerdere talen te genereren, kan het moeite hebben om effectief om te gaan met zoekopdrachten waarbij meerdere talen betrokken zijn binnen één invoer of waarbij vertalingen tussen talen nodig zijn, wat het nut in meertalige contexten zou kunnen beperken.

9.2 (q) Moeilijkheden met niet-letterlijke taal – ChatGPT kan moeite hebben met het nauwkeurig interpreteren of genereren van niet-letterlijke taal, zoals idioom, metaforen of sarcasme. Dit kan resulteren in antwoorden die te letterlijk zijn, de bedoelde betekenis missen of niet de gewenste toon overbrengen.

9.2 (r) Beperkte creativiteit – Hoewel ChatGPT inhoud kan genereren die creatief lijkt, wordt zijn creativiteit uiteindelijk beperkt door de patronen en associaties die het heeft geleerd van zijn trainingsgegevens. Dit kan resulteren in inhoud die afgeleid is of de nieuwigheid en originaliteit mist die gevonden wordt in door mensen gegenereerde creatieve werken.

9.2 (s) Overgeneralisatie – ChatGPT kan soms overgeneraliseren bij het genereren van inhoud, wat leidt tot antwoorden die nuance missen of complexe onderwerpen simplificeren. Dit kan resulteren in inhoud die aan de oppervlakte plausibel lijkt, maar de subtiliteiten van een bepaald onderwerp niet accuraat behandelt.

9.2 (t) Inconsistentie in kwaliteit – De uitvoerkwaliteit van ChatGPT kan variëren afhankelijk van de invoer en het onderwerp waarover wordt gediscussieerd, wat leidt tot inconsistenties in het detailniveau, de coherentie of de relevantie van de gegenereerde inhoud. Dit kan het moeilijk maken om de prestaties van het model in verschillende contexten of toepassingen te voorspellen.

9.2 (u) Energieverbruik en milieu-impact – Het trainen en uitvoeren van grootschalige AI-modellen zoals ChatGPT kan aanzienlijke hoeveelheden energie verbruiken, wat bijdraagt aan de bezorgdheid over het milieu en vragen oproept over de duurzaamheid en ethische implicaties van het wijdverbreide gebruik ervan.

9.2 (v) Moeilijkheid om menselijke intuïtie te vangen – ChatGPT, als AI-taalmodel, kan moeite hebben om de menselijke intuïtie vast te leggen, waardoor het een uitdaging wordt voor het model om inhoud te genereren die de impliciete kennis of het stilzwijgende begrip weerspiegelt waarop mensen vaak vertrouwen bij het communiceren of het nemen van beslissingen.

9.2 (w) Gebrek aan zelfbewustzijn – ChatGPT heeft geen zelfbewustzijn, wat betekent dat het geen inzicht heeft in zijn eigen beperkingen, vooroordelen of kennishiaten. Dit kan het moeilijk maken voor het model om inhoud te genereren die onzekerheid erkent of aangeeft wanneer het onvolledige of onjuiste informatie verstrekt.

9.2 (x) Resourcevereisten voor training en implementatie – Het trainen en inzetten van AI-modellen zoals ChatGPT kan aanzienlijke computerbronnen vereisen, wat een toetredingsdrempel kan vormen voor kleinere organisaties of individuen die AI-taalmodellen willen ontwikkelen of aanpassen aan hun specifieke behoeften.

10. Conclusie

Objectiviteit is zelden absoluut, omdat daar nauwelijks een referentie voor bestaat. Zelfs in een wetenschappelijk artikel als dit sijpelen andere drijfveren door. De weigering om negatieve termen als "nadelen", "gevaren" en "kritiek" te gebruiken mag dan vanuit het oogpunt van objectiviteit begrijpelijk zijn, de positiviteit over de nu al nuttige bijdrage van ChatGPT aan de wetenschap, en vooral het geloof dat de vertekeningen en beperkingen nog kunnen weggewerkt worden heeft weinig met objectiviteit te maken (mijns inziens, en op het gevaar af van kritiek te krijgen voor een overdreven nadruk op nadelen en gevaren :-).

ChatGPT heeft al aanzienlijke bijdragen geleverd aan de vooruitgang van wetenschappelijk onderzoek (sinds de vrijgave einde 2022?) en heeft het potentieel om het veld in de toekomst te blijven transformeren. Door de uitdagingen en ethische zorgen die met het gebruik ervan gepaard gaan aan te pakken, kunnen onderzoekers de kracht van AI op verantwoorde wijze benutten om de grenzen van menselijke kennis en begrip te verleggen. Het aanpakken van deze uitdagingen zal de prestaties, het nut en de gebruikerservaring van ChatGPT en andere conversationele AI-modellen verbeteren, waardoor ze effectiever worden in verschillende toepassingen en industrieën. In verschillende toepassingen en op wetenschappelijk onderzoeksgebied heeft ChatGPT grote belofte getoond (?!) in het verbeteren van de efficiëntie (de grote ellende van het ding!!; efficiëntie is niet wat we nodig hebben, effectiviteit wél), het faciliteren van samenwerking en het stimuleren van innovatie. ChatGPT heeft verschillende verbeteringen op het gebied van generatieve AI gebracht, waaronder:

  • verbeterd contextueel begrip: ChatGPT kan de context van een gesprek begrijpen en relevante reacties genereren, waardoor het effectiever wordt in het nabootsen van mensachtige interacties;
  • betere taalgeneratie: dankzij de geavanceerde mogelijkheden voor taalgeneratie produceert ChatGPT coherente, contextueel nauwkeurige en grammaticaal correcte tekst;
  • taakaanpassingsvermogen: ChatGPT kan worden verfijnd voor specifieke taken of domeinen, waardoor de veelzijdigheid ervan in verschillende sectoren wordt vergroot;
  • meertalige vaardigheid: dankzij de mogelijkheid om met meerdere talen te werken, kan ChatGPT tegemoetkomen aan diverse gebruikersgroepen en wereldwijde applicaties.

Er moeten echter verschillende ethische kwesties worden opgelost om ChatGPT te helpen het intelligente mens-machine-tijdperk vorm te geven. Als de aandacht wordt afgeleid naar het vormgeven van het ideële "mens-machine-tijdperk" zie ik de directe ethische kwesties nog niet snel aangepakt laat staan opgelost worden. De neiging om negativiteit te negeren, of te compenseren met positiviteit of dromen, heeft nog nooit problemen opgelost.