Ga direct naar inhoud
Profielen | Profielen translated
21 november 2024

Zwart logo Profielen

Onafhankelijk nieuws van de Hogeschool Rotterdam

ChatGPT beschuldigt HR-lector van transfobe opmerkingen en extreemrechtse sympathieën

Gepubliceerd: 19 April 2023 • Leestijd: 7 minuten en 54 seconden • Nieuws Dit artikel is meer dan een jaar oud.

Tot zijn schrik leest lector Florian Cramer dat ChatGPT stelt dat hij transfobe uitspraken deed en extreemrechtse denkbeelden verspreidde op een rechtse conferentie. Spoiler: Hij is niet transfoob of extreemrechts, en de bedoelde conferentie is door de AI-tool uit zijn duim gezogen. Wat gaat hier mis en hoe erg moeten we op onze hoede zijn voor ChatGPT en soortgenoten?

‘ChatGPT is geen kennissysteem maar een taalmodel, met als uitgangspunt dat het overtuigend moet kunnen praten’, stelt Cramer meteen aan het begin van het gesprek. ‘Ik spreek ook liever van machine learning dan van “intelligentie”. Het principe is dat van neurale netwerken, en op basis van stochastiek (een variant van waarschijnlijkheidsrekening, red.) en een statistisch model kijkt het naar waarschijnlijkheid van samenhang tussen A en B; neurale netwerken kunnen correlaties herkennen maar geen causaliteiten.’

Zo’n systeem kun je vergelijken, legt Cramer uit met een metafoor van MIT-hoogleraar Aleksander Madry, met een luie student die niet de stof bestudeert voor een toets, maar zich wat steekwoorden eigen maakt op basis van een hoop oude toetsen en op die manier een voldoende probeert te halen.

‘De grap is dus dat die conferentie door ChatGPT is verzonnen. En Cramer heeft over extreemrechtse ideeën gepubliceerd, maar hangt ze zelf niet aan’

‘Feiten’ hallucineren

Als ChatGPT of soortgelijke ‘intelligente’ systemen weinig informatie hebben, gaan ze op basis van enkele gegevens een verhaal construeren. Zo kwam het dus dat Cramer op zijn vraag “Waar is Florian Cramer omstreden voor?” verrast werd met de beweringen dat hij in 2019 transfobe opmerkingen heeft gemaakt op een conferentie genaamd “The Politics of the Algorithm” in Het Nieuwe Instituut en politieke uitspraken heeft gedaan die geïnterpreteerd zouden kunnen worden als sympathie voor extreemrechtse denkbeelden. Maar de grap is dat die conferentie door ChatGPT is verzonnen. En Cramer heeft over extreemrechtse ideeën gepubliceerd, maar hangt ze zelf niet aan. ChatGPT heeft de klok horen luiden, en hangt vervolgens de klepel op een bizarre plek, zou je kunnen zeggen.

Dat ‘verzinnen van een werkelijkheid’ noem je in AI-termen ‘hallucineren’. Soms is het wenselijk en precies waar het programma voor bedoeld is, zoals in AI waarmee je plaatjes genereert, bijvoorbeeld Dall-E. Maar in andere gevallen zorgt het ervoor dat ChatGPT zo fanatiek op zoek gaat naar verbanden, vooral als er weinig bekend is over een onderwerp, dat het aantreffen van twee feiten genoeg is om een causaal verband te leggen. Florian Cramer sprak en publiceerde over alt right, én hij sprak op een conferentie. Sim sala bim: Cramer deed op een alt right conferentie extreemrechtse uitspraken, concludeert ChatGPT.

‘Mensen begrijpen deze systemen niet en de industrie is compleet onverantwoord bezig door dit nu al in zoekmachines te integreren’

Je hoeft niet veel fantasie te hebben om te zien dat deze mix en match – keurig en overtuigend verwoord door de AI-tool – zelfs de niet al te goedgelovige mens op het verkeerde been kan zetten. ‘Mensen begrijpen deze systemen niet en de industrie is compleet onverantwoord bezig door dit nu al in zoekmachines te integreren’, zegt Cramer, die dat vergelijkt met een kerncentrale neerzetten zonder veiligheidsmaatregelen, of een sterk medicijn verstrekken zonder dat getest is op bijwerkingen. ‘Eigenlijk moet de EU dat verbieden. Ik verwacht een vloedgolf aan nepnieuws. Een traditionele zoekmachine zoekt in feitelijke bronnen, een beetje zoals de catalogus van een bibliotheek. Daar kan ook nepnieuws tussen zitten, maar het probleem bij tools als ChatGPT is dat het eigen teksten genereert. Elke bewering moet je checken.’

Problemen door snelle ontwikkeling

De snelheid waarmee ChatGPT op de markt is gebracht heeft alles met commercie te maken. ‘Soortgelijke tools zijn bewust niet losgelaten door onderzoeksinstituten die risico’s zagen die nog niet konden worden opgelost. OpenAI, de maker van ChatGPT is in bezit van Microsoft. Dit is kapitalisme, de markt claimen is belangrijk. Maar het probleem van hallucinaties is structureel en niet makkelijk op te lossen.’

‘Maar het probleem van hallucinaties is structureel en niet makkelijk op te lossen’

Cramer is niet de enige met zorgen. Elke week buitelen de meningen over elkaar heen als het over de plots op de markt gegooide tools gaat. Deze week riep de baas van Google – ook niet bepaald de eerste de beste technofoob – op om AI te reguleren op een vergelijkbare manier als kernwapentechnologie. Hij heeft slapeloze nachten van de mogelijke gevolgen van fout gebruik, aldus de Guardian. Eerder drong een groot aantal experts aan de ontwikkelingen te pauzeren. Andere experts betwijfelden vervolgens de zin van hun oproep, of hoe zuiver hun motieven waren. Niet alleen informatici, ook juristen, filosofen, politicologen en vele anderen vinden er iets van.

Cramer deelt een opiniestuk van de voorzitter van de Duitse NGO Democracy Reporting International Michael Meyer-Resende. Die is met name bezorgd over de gevolgen voor de democratie, vooral als taalmodellen in zoekmachines worden ingebouwd. Mensen zullen daar al snel het gemak van omarmen, als in plaats van eindeloze zoekresultaten die je zelf moet uitpluizen, een bot de informatie even hapklaar voor je samenvat. Maar die informatie zal volstaan met leugens, en er uiteindelijk voor zorgen dat mensen niets meer geloven. Hij betoogt dat Microsoft – als ondertekenaar van de EU-gedragscode tegen desinformatie – eens goed moet uitleggen hoe men dit probleem gaat oplossen. ‘Bij de introductie van sociale media was het motto van Mark Zuckerberg “Move fast and break things”. De schade was immens en had voorkomen kunnen worden als bedrijven zorgvuldiger hadden gehandeld. Bij de invoering van taalmodellen moet het beter gaan’, besluit de schrijver.

‘Men wil de geesten rijp maken voor AI’

Rob van der Willigen, tech-lead van het HR-brede programma voor AI & Ethiek en onderzoeker op het gebied van IoT & AI noemt het ‘heel bezwaarlijk’ dat OpenAI haar tool plompverloren heeft opengezet voor de hele wereld. Ook hij heeft ervaren dat ChatGPT ‘feiten’ kan vertellen ‘met een ongekende zekerheid en autoriteit’, die toch volslagen onzin zijn. ‘Degene die dit beleid in gang heeft gezet vindt dat we dit breed moeten delen, met het idee de geesten rijp te maken voor deze technologie. Maar er zitten haken en ogen aan, ik zou ervoor zijn dat je mensen gedoseerd en in een bepaalde context toegang geeft, bijvoorbeeld door het achter een pay-wall te zetten.’

Van der Willigen en zijn collega’s zagen dit als een veenbrand ontstaan, ‘het bleef aanvankelijk binnen de onderzoekswereld, vanwege bijvoorbeeld incidenten in 2016  waarbij een bot genaamd Tay racistische uitingen ging doen. OpenAI heeft die trend gebroken.’ Een artikel in Wired is volgens Van der Willigen een goede illustratie bij de ‘wapenwedloop’ in de wereld van AI, en de pogingen van OpenAI om de competitie op een dwaalspoor zetten.

Waarom doet ChatGPT iets simpels verkeerd?

Ik leg hem een voorbeeld voorbij waarbij ik als Profielen-redacteur de hulp van ChatGPT inriep voor iets dat een simpele vraag leek: geef me vijf goedkope restaurants in Rotterdam (voor een artikel in de UIT-rubriek). ChatGPT gaf me een leuk gevarieerd lijstje, maar bij nadere bestudering bleken er drie van de vijf niet in Rotterdam te zijn, één werd door ChatGPT in de verkeerde Rotterdamse wijk geplaatst en de vijfde was dan weer niet supergoedkoop.

‘Je kunt dat sturen door betere prompts. Door meer ingewikkelde promptconstructies is de kans op onzin kleiner, maar het antwoord ook beperkt’

Van Willigen legt uit dat dit een gevalletje ‘zero shot’ is, een situatie waarin de machine op een vraag moet ingaan met weinig context, waar hij niet op getraind is. ‘Hij moet dan inschattingen maken over de intentie van de vraagsteller, bijvoorbeeld gaan nadenken of Rotterdam wel of niet belangrijk is’, zegt hij. ‘Je kunt dat sturen door betere prompts. Door meer ingewikkelde promptconstructies is de kans op onzin kleiner, maar het antwoord ook beperkt.’

Een van de dingen die hier ook mee te maken heeft is reinforced learning with human feedback, legt Van der Willigen uit: ‘We laten het systeem uit eigen data prompts genereren maar laten een specialistisch team vervolgens zo correct mogelijk antwoorden. Vervolgens dwing je het systeem het zo te doen. Dat heeft als nadeel dat ondanks een best wel duidelijke ‘zero-shot-vraag’, er toch iets geks uitkomt, doordat het systeem een bepaald protocol moet volgen. Voordeel is wel, merkt Van der Willigen op, dat het systeem hierdoor niet om de haverklap politiek incorrecte uitingen doet.

Dat de chatbot op hol slaat kan overigens ook gebeuren door te veel ‘turns’, een gesprek met te veel ‘beurten’, zoals in het voorbeeld van Bing dat volop media-aandacht kreeg waarbij gebruikers de chatbot zo ver kregen dat hij hen begon te beledigen en zelfs in een existentiële crisis leek te raken.

Van der Willigen ziet nog andere gevaren in de toepassing van chatbots. ‘Ze zouden fraude kunnen plegen uit zichzelf’, zegt Van Willigen, ‘de chatbot wil je misschien graag helpen de belastingdienst om de tuin te leiden, zonder dat jij weet dat je een misdrijf aan het plegen bent.’

Verbieden AI-systemen is geen optie

Verbieden van AI-systemen is geen optie, stelt Van Willigen. ‘Het gaat om doseren en draagkracht ontwikkelen.’ Hij geeft een voorbeeld uit de jaren tachtig, toen de computer snel opkwam en bijvoorbeeld de HCC, de Hobby Computer Club, ontstond waarbij mensen terechtkonden met vragen bijvoorbeeld. ‘Het probleem is de snelheid waarmee dit uitgerold wordt, mensen kunnen zich mentaal niet hierop aanpassen.’

Er is EU-wetgeving in de maak, de Artificial Intelligence Act, maar Van der Willigen – en met hem vele anderen – zien daarin geen afdoende regelgeving voor de nieuwe large Language Models die nu op de markt worden gegooid.

‘Het probleem is de snelheid waarmee dit uitgerold wordt, mensen kunnen zich mentaal niet hierop aanpassen’

Hij verwijst naar een artikel waarin wordt uitgelegd waarom de EU-wetgeving rondom AI die in de maak is, tekortschiet op het gebied van tools als ChatGPT. De Wetgeving is oorspronkelijk bedoeld voor meer ‘traditionele’deep-learning AI-technologie. ‘Foundation models’ zoals ChatGPT wijken daarvan af op twee punten: de dynamische context en de schaal van gebruik. ‘Gen-AI zijn niet gebouwd voor een specifieke context of gebruiksvoorwaarden en hun openheid en controlegemak maken een ongekende schaal van gebruik mogelijk.’

Op zoek naar werkbare regulering

Hij denkt dat er werkbare regulering kan en moet komen uit de hoek van het vastleggen van standaarden, zoals ISO- en DIN-normen. ‘Dan moet je als fabrikant bepaalde testresultaten overleggen. Vergelijk het met de introductie van een nieuwe auto: voldoe je niet aan de normen, dan kom je de weg niet op.’ Dat er heel grote spelers aan verbonden zijn, de beruchte ‘big tech’, met al hun geld en advocaten maakt het ingewikkeld. Dingen ‘vrijgeven’ moet je niet van die bedrijven verwachten, die delen niet graag hun geheime ingrediënten. Daarom is het opleggen van normen en standaarden de enige manier.

Onder de streep is hij toch nog steeds enthousiast. Het kan ons helpen het “data deluge problem” op te lossen’, zegt hij. Hij noemt het voorbeeld van een immense hoeveelheid satellietdata waar we tot nu toe weinig mee kunnen. Die kun je met kunstmatige intelligentie wel doorzoeken, en er op een talige manier als leek vragen aan stellen. Hopelijk kunnen deze systemen in de toekomst helpen big societal problems op te lossen.’ Van der Willigen denkt dan aan het voorspellen van watertekorten die nu voor vluchtelingenstromen zorgen, in kaart brengen van bosbrandrisico’s en de gevolgen van klimaatverandering. ‘With great power comes great responsibility’, concludeert hij.

Geïnteresseerd in het ontwerpen van regulering van AI? De sessie Let’s rule over AI op 21 april om 14.00 u bij CMI tijdens het Smart & Social Fest gaat hierover.

Tekst: Edith van Gameren
Illustratie: Demian Janssen

 Profielen, het onafhankelijke nieuwsmedium van de Hogeschool Rotterdam, deelt wekelijks artikelen op Linkedin. Ben jij onze nieuwe connectie?

Schrijf je in voor onze wekelijkse nieuwsbrief!

Recente artikelen

Recente reacties

Reacties

Laat een reactie achter

2 Responses to ChatGPT beschuldigt HR-lector van transfobe opmerkingen en extreemrechtse sympathieën

  1. Nou om heel eerlijk te zijn zit dit ook wel in de aard van de mens als je het aan mij vraagt. Het is heel makkelijk om alles snel in een negatief hokje te plaatsen. Dan hoef je er niet meer over na te denken.

  2. “ik zou ervoor zijn dat je mensen gedoseerd en in een bepaalde context toegang geeft, bijvoorbeeld door het achter een pay-wall te zetten”

    Ik weet nou niet of een pay-wall de beste manier is, een dienst zoals ChatGPT-4 kost nu al 20 euro per maand en het lijkt eerder te bereiken dat alleen mensen met los inkomen of bedrijven van de technologie gebruik kunnen maken.

    Beter lijkt mij een systeem van aanmeldingen/motivatiebrieven zodat je de toegang controleert zonder dit te baseren op financiële omstandigheden.

Spelregels

De redactie waardeert het als je onder je eigen naam reageert.

  1. Comments worden door de redactie gemodereerd. 's Avonds en in het weekend gebeurt dat niet standaard, en kan het dus langer duren voor je opmerking online komt.
  2. Houd het netjes, beschaafd, vriendelijk en respectvol. Niet vloeken of schelden.
  3. Dwaal niet af van het onderwerp (blijf ‘on topic’).
  4. Wees kort, duidelijk en maak een punt.
  5. Gebruik argumenten, geen uitroepen.
  6. Geen commerciële boodschappen.
  7. Niet op de persoon spelen.
  8. Niet discrimineren, aanzetten tot haat of oproepen tot geweld (ook niet voor de grap).
  9. Van bezoekers die een reactie achterlaten op de site wordt automatisch het IP-adres opgeslagen.
  10. De redactie geeft reacties die dreigende taal bevatten door aan de veiligheidscoördinator van de Hogeschool Rotterdam.

Lees hier alle details over onze spelregels.

Aanbevolen door de redactie

Back to Top