‘Mijn grootste zorg is dat kunstmatige intelligentie de ongelijkheid in de samenleving vergroot’
Maaike Harbers is lector artificial intelligence & society bij het Kenniscentrum Creating 010 en hoofddocent bij de opleiding creative media and game technologies. Ze doet onderzoek naar ethiek en kunstmatige intelligentie.
‘Toen ik in 2000 op zoek ging naar een studie, las ik voor het eerst over kunstmatige intelligentie. De opleiding die ik tegenkwam tijdens het bladeren in een van die voorlichtingsboekjes heette toen nog ‘technische cognitiewetenschappen’. Wat mij erin aansprak was de combinatie van wiskunde, filosofie, psychologie en taalkunde. Alles wat ik leuk vond, zat in die ene studie.
‘Nadat ik was afgestudeerd, heb ik onderzoek gedaan bij TNO en een aantal universiteiten. De universiteit heb ik uiteindelijk verruild voor de Hogeschool Rotterdam omdat het onderzoek op de hogeschool dichter bij de praktijk staat. Ik heb nu veel meer contact met bedrijven en de resultaten van mijn onderzoek komen direct in het onderwijs terecht. Het geeft veel voldoening om te zien dat de uitkomsten van onderzoek echt tot veranderingen leiden.
‘Momenteel doe ik onderzoek naar ethiek en kunstmatige intelligentie. Mijn grootste zorg is dat kunstmatige intelligentie de ongelijkheid in de samenleving vergroot. Algoritmes worden steeds vaker gebruikt om beslissingen te nemen en voorspellingen te doen, bijvoorbeeld bij sollicitaties of het verstrekken van hypotheken. Dat kan heel handig zijn, maar het gaat niet altijd goed. Algoritmes baseren hun keuzes op data, maar in veel data zit een vooroordeel waardoor je discriminatie kunt krijgen op basis van gender, etniciteit, seksuele voorkeur of zelfs postcode.
‘Stel, je wilt een hypotheek afsluiten en een algoritme bepaalt of je daarvoor in aanmerking komt. Dan kijkt het algoritme naar hoeveel je verdient en of je schulden hebt. Dat is logisch. Maar vaak wordt ook naar andere factoren gekeken om te bepalen hoe groot de kans is dat jij je hypotheek netjes terugbetaalt, zoals je postcode. Als mensen in je woonomgeving niet goed betalen dan wordt de kans op een hypotheek voor jou dus kleiner. Mensen die volgens de statistieken in een iets minder gunstige categorie vallen, komen daar moeilijk weer uit. Terwijl dat niet terecht hoeft te zijn.
‘Discriminatie is natuurlijk iets wat sowieso speelt in de maatschappij. Er zijn experimenten gedaan waarbij precies dezelfde sollicitatiebrieven werden verstuurd met verschillende namen. De ene was ondertekend met Maarten en de andere met Mohammed. Maarten werd net wat vaker uitgenodigd. Het probleem is dat algoritmes dit effect kunnen versterken. Dit gebeurde bijvoorbeeld bij Amazon. Daar krijgen ze heel veel sollicitatiebrieven binnen, en daarom besloten ze een algoritme te trainen om de beste brieven eruit te pikken. Zo’n algoritme leert van data uit het verleden en kijkt welke brieven hebben geleid tot succes. Omdat het een techbedrijf is waar vooral mannen werken, leerde het algoritme dat mannen geschikter waren voor het werk dan vrouwen. Het resultaat was dat er na een tijdje alleen maar brieven van mannen werden geselecteerd.
‘Ik probeer studenten bewust te maken van dit soort effecten zodat ze gaan beseffen dat de keuzes die ze maken als ontwerper niet alleen technisch zijn, maar ook impact hebben op mensen en de samenleving. Ik onderzoek welke ethische afwegingen ze kunnen maken tijdens het ontwerpproces, zodat studenten straks concrete handvatten meekrijgen.
‘Daarnaast leer ik ze dat het belangrijk is dat algoritmes inzichtelijk worden gemaakt. Stel dat je hypotheekaanvraag wordt afgewezen, dan wil je wel graag weten waardoor dat komt. Dat is niet alleen interessant, maar ook belangrijk als je een beslissing wilt aanvechten. Een heel algoritme uitleggen heeft niet zoveel zin, want dat begrijpen mensen niet, maar je kunt wel inzichtelijk maken welke informatie doorslaggevend is en dat op een goede manier presenteren aan de gebruikers.
‘Ik merk dat studenten steeds meer het belang hiervan inzien. Ook wanneer het gaat over privacy heb ik het gevoel dat ze nu bewuster bezig zijn dan een paar jaar terug. Ze erkennen dat het iets belangrijks is om rekening mee te houden.
‘Ik ben benieuwd wat kunstmatige intelligentie ons in de toekomst gaat brengen. We zitten midden in een interessante tijd waarin van alles gebeurt. Er liggen grote kansen, bijvoorbeeld in de gezondheidszorg waar systemen bestaan die beter een diagnose kunnen stellen dan artsen en operatierobots die veel nauwkeuriger kunnen opereren dan chirurgen. Dat zijn goede dingen. Maar ik denk wel dat we goed moeten nadenken over de gevolgen van technologie, vooral omdat kunstmatige intelligentie een steeds grotere rol gaat spelen in ons dagelijks leven. Daarom zou ik het goed vinden als ook binnen het curriculum van onze opleidingen ethiek een belangrijkere rol krijgt.’
Tekst & beeld: Wietse Pottjewijd
Wil je Humans of HR volgen? Dat kan via humansofhr.nl, via Instagram of de Facebookpagina. Meer lezen over Humans of HR?
Mijn grootste zorg is dat menselijke intelligentie (de samenleving van mensen) en het totale eco-systeem vernietigt.
Er is altijd weerstand geweest tegen nieuwe technologie en old-school was altijd beter, van wikipedia
In United Kingdom, the Locomotive Acts, was a policy requiring self-propelled vehicles to be led by a pedestrian waving a red flag or carrying a lantern to warn bystanders of the vehicle’s approach. In particular The Locomotive Act 1865, also known as Red Flag Act, stated:
Firstly, at least three persons shall be employed to drive or conduct such locomotive, and if more than two waggons or carriages he attached thereto, an additional person shall be employed, who shall take charge of such waggons or carriages;
Secondly, one of such persons, while any locomotive is in motion, shall precede such locomotive on foot by not less than sixty yards, and shall carry a red flag constantly displayed, and shall warn the riders and drivers of horses of the approach of such locomotives, and shall signal the driver thereof when it shall be necessary to stop, and shall assist horses, and carriages drawn by horses, passing the same,
The Red Flag Law was repealed in 1896, by which time the internal combustion engine was well into its infancy.[1]
Maar in hoeverre spreken we nu al van kunstmatige intelligentie? De voorbeelden die je noemt zijn algoritmes bedoeld als risicoanalyse. In mijn ogen een veredelde database. Heeft deze algoritme wat geleerd? Of heeft deze gedaan waar deze voor is gemaakt. Uit de data gehaald dat het beter en/of veiliger is om mannen boven vrouwen in deze sector te kiezen. Waarbij dit resultaat natuurlijk niet politiek correct genoeg is waardoor er wordt besloten dat deze algoritme discrimineert. Laat deze algoritme los in een andere sector, dan kan het resultaat natuurlijk andersom zijn. Een simpel en correcte oplossing is natuurlijk om m/v als variabel weg te laten in de algoritme of in de data zelf.
https://decorrespondent.nl/9149/aanbevolen-voor-jou-op-youtube-racisme-vrouwenhaat-en-antisemitisme/4510674801094-63f6902a?mc_cid=4a4ee68fe7&mc_eid=293c6824e9
Dank, Maaike! Ik ben enorm opgelucht door jouw verhaal (in de zin dat er oog is binnen één van onze lectoraten voor de maatschappelijke consequenties van algoritmes)
Heel belangrijk, voor onze eigen bewustwording én die van onze 40.000 studenten!
(Ik had net het uitgebreide artikel in de Correspondent gelezen en was bezorgd…)
Gelukkig weten collega’s op de HR hoe een algoritme getest moet worden op validiteit. Op Yammer werd voorgesteld om Learning Analytics in te zetten om studiesucces te ondersteunen. Een collega op Accountantscontrole – AIC van de HR wees de discussie er op dat het geen eenvoudige zaak is:
‘Oh. zijn alle gegevens aan het onderzoekbureau geleverd? Zijn de gegevens juist aangeleverd, verdeeld in training- en test sets. Analyse met machine learning moet wel goed worden aangepakt. Bijvoorbeeld zonder een test set kan HR de analyse niet evalueren.’
https://en.wikipedia.org/wiki/Training,_validation,_and_test_sets
Bepaalde attributen weglaten uit de set, of andere gebruiken lijkt mij alleen een goed plan als de uitkomst van het algoritme accurater wordt.
Het is natuurlijk heel vervelend als je statistisch gezien tot een minder presterende groep behoort hoor, maar een bank/bedrijf wilt geld verdienen (Sommige mensen vinden dat naar, maar alleen socialisten zijn daar tegen.) en dat kun je ze niet kwalijk nemen.
Als een bedrijf slechter gaat presteren door een politiek-correct algoritme te gebruiken, alleen maar omdat het politiek-correct wilt zijn, is het denk ik plan voor de aandeelhouders om de directie naar huis te sturen.
Verder is het natuurlijk van belang je ML-algoritme niet met onrealistische patronen te voeden, maar dat lijkt mij verder logisch…