Vooroordelen in AI
Heb je wel eens gehoord dat AI-systemen sommige mensen oneerlijk behandelen? Misschien las je dat een sollicitatie-app vrouwen benadeelt. Of dat gezichtsherkenning minder goed werkt bij mensen met een donkere huidskleur. Hoe kan dat? AI is toch een computer, die kan toch niet discrimineren?
Helaas is het niet zo simpel. AI-systemen kunnen vooroordelen bevatten over bijvoorbeeld geslacht, huidskleur of achtergrond. Dit kan vervelende of zelfs schadelijke gevolgen hebben voor mensen. Maar hoe komt dat? En wat kunnen we eraan doen? In dit artikel leggen we uit hoe vooroordelen in AI ontstaan en wat de gevolgen daarvan zijn.
Heb je een vraag over dit onderwerp? Neem contact met ons op.
Vooroordelen zijn vaste ideeën over bepaalde groepen mensen. Bijvoorbeeld de gedachte dat vrouwen beter zijn in verzorgende beroepen. Of dat mensen met een bepaalde achtergrond minder betrouwbaar zijn. Mensen hebben van nature vooroordelen, vaak zonder dat ze het door hebben. Dat is een eigenschap van hoe onze hersenen werken: ze proberen informatie te ordenen door patronen te herkennen. Dat onze hersenen in patronen denken kan heel handig zijn, maar ook voor problemen zorgen.
Het vervelende is namelijk dat AI-systemen deze menselijke vooroordelen kunnen overnemen. AI leert namelijk van gegevens die door mensen gemaakt zijn (Lees ook “Wat is AI en hoe werkt het?”). En als die informatie vooroordelen bevat, dan leert de AI die vooroordelen ook. Het resultaat is een systeem dat bepaalde groepen mensen anders behandelt dan andere groepen. Vaak heeft niemand dat expres gedaan.
Er zijn verschillende manieren waarop vooroordelen in AI-systemen kunnen komen. Het belangrijkste probleem zit bij de gegevens waarmee AI gemaakt wordt.
AI leert van voorbeelden. Als een AI leert om CV’s te bekijken, dan krijgt het bijvoorbeeld duizenden eerdere sollicitaties te zien. Het leert welke kandidaten zijn aangenomen voor een baan, en wie niet. Maar stel dat in het verleden vooral mannen zijn aangenomen voor leidinggevende functies. Dan kan de AI leren dat ‘man zijn’ een belangrijk kenmerk is voor die functie, en vinden dat mannen geschikter zijn voor dat soort banen. Het systeem neemt dan het vooroordeel over dat al in de data zat.
Dit gebeurde bijvoorbeeld bij Amazon1Bron: Insight – Amazon scraps secret AI recruiting tool that showed bias against women | Reuters. Dat bedrijf maakte tussen 2014 en 2017 een AI om sollicitanten te selecteren voor technische functies. Het systeem behandelde vrouwen slechter. Dat kwam omdat het was getraind met gegevens van vooral mannelijke werknemers in technische functies. Het systeem gaf bijvoorbeeld lagere scores aan CV’s waarin het woord “vrouwen” voorkwam, zoals bij “aanvoerder vrouwenschaakclub”. Amazon moest het systeem uiteindelijk stopzetten omdat het bedrijf er niet in slaagde om de vooroordelen eruit te halen.
Een ander probleem ontstaat wanneer er te weinig voorbeelden zijn van bepaalde groepen in de gegevens die AI krijgt. Stel dat een AI die gezichten herkent vooral is getraind met foto’s van mensen met een lichte huidskleur. Dan kan het systeem moeite hebben om gezichten van mensen met een donkere huidskleur te herkennen.
Sterker nog, we weten dat dit gebeurt. Onderzoek van het MIT en Microsoft uit 2018 heeft aangetoond dat gezichtsherkenningssystemen inderdaad veel minder goed werken bij mensen met een donkere huidskleur en bij vrouwen. De foutmarge bij het herkennen van lichtgetinte mannen was slechts 0,8%, maar bij donkergekleurde vrouwen liep dit op tot meer dan 34%. Dit kan ernstige gevolgen hebben, bijvoorbeeld wanneer deze systemen worden gebruikt door de politie of bij grenscontroles. In de VS zijn er zelfs gevallen bekend waarbij zelfrijdende auto’s voetgangers met een donkere huidskleur niet goed detecteerden, wat tot ongelukken leidde.
Ook de mensen die AI-systemen maken kunnen vooroordelen toevoegen. Welke informatie kiezen ze om aan de AI te geven? Hoe wordt succes van het AI-model gemeten? Al deze keuzes kunnen invloed hebben. Ze bepalen of een systeem eerlijk is voor iedereen.
Als een team van AI-ontwikkelaars weinig verschillend is (bijvoorbeeld alleen maar mannen, of alleen maar witte mensen), lopen zulke teams meer kans om bepaalde problemen over het hoofd te zien. Iemand die zelf nooit discriminatie heeft meegemaakt, denkt misschien niet na over hoe een systeem mensen met een andere achtergrond slechter kan behandelen.
Vooroordelen in AI zijn om verschillende redenen problematisch. Ten eerste is het gewoon oneerlijk. Iedereen verdient een gelijke kans. Of het nu gaat om een baan, eerlijke behandeling door de politie, of goede medische zorg. AI-systemen die vooroordelen bevatten kunnen deze ongelijkheid groter maken.
Ten tweede kan het gevaarlijk zijn. Verkeerde beslissingen op basis van vooroordelen kunnen levens veranderen. Iemand die onterecht als ‘hoog risico’ wordt gezien. Iemand die een baan misloopt. Of iemand die een verkeerde diagnose krijgt. Deze mensen ondervinden daar directe schade van.
En tot slot: veel mensen vertrouwen erop dat AI eerlijk is. “Het is gewoon een computer, die kan niet oneerlijk zijn.” Maar dat klopt niet. Dit verkeerde idee kan ervoor zorgen dat vooroordelen juist minder snel worden opgemerkt en aangepakt.
Als gebruiker van AI-systemen kun je ook een rol spelen. Hier zijn een paar dingen om rekening mee te houden:
Vraag je af: zou dit resultaat anders zijn geweest voor iemand met een andere achtergrond? Als een AI bijvoorbeeld vacatures voorstelt of teksten schrijft, let dan op of bepaalde groepen over- of ondervertegenwoordigd zijn.
Wat jij aan een AI-systeem vertelt of vraagt, kan gebruikt worden om die AI verder te trainen. Als jij vooroordelen laat zien in je gesprekken met AI, bestaat de kans dat het systeem die overneemt. Probeer dus bewust te zijn van hoe je dingen formuleert.
Als je denkt dat een AI-systeem oneerlijk is, meld het dan. Dit kan bij het bedrijf dat de AI maakt, bij je werkgever als het om werksituaties gaat, of via consumentenorganisaties. Alleen door hierover te praten kunnen we ervoor zorgen dat AI beter wordt.
De technologie ontwikkelt zich razendsnel. Blijf jezelf informeren over hoe AI werkt en wat de risico’s zijn. Hoe meer mensen begrijpen hoe AI werkt, hoe beter we samen kunnen zorgen voor eerlijke systemen.
AI-systemen kunnen vooroordelen bevatten. Deze vooroordelen ontstaan doordat AI leert van gegevens die door mensen zijn gemaakt. En mensen hebben nu eenmaal vooroordelen. Vooroordelen in AI kunnen mensen benadelen bij sollicitaties, in de rechtspraak, in de gezondheidszorg en op sociale media.
Wees daarom kritisch op de resultaten van AI. Vraag je af: zou dit resultaat anders zijn geweest voor iemand met een andere achtergrond? Besef dat jouw interacties met AI ook worden gebruikt om systemen verder te trainen. En als je denkt dat een systeem oneerlijk is, deel je zorgen dan met anderen. Alleen door alert te blijven kunnen we ervoor zorgen dat AI voor Onderzoek van het MIT en Microsoft uit 2018 íedereen werkt, niet alleen voor sommigen.
Wil je meer weten over AI? Bekijk dan ook ons artikel Wat is AI en hoe werkt het?
Wil je meer weten over digitale balans in jouw situatie? Voor jezelf, voor je kind of een andere naaste? Onze experts helpen je graag verder. Je kunt anoniem met ons bellen of mailen. Via de website kun je ook een terugbelverzoek achterlaten of meteen je vraag stellen.
Geopend op maandag t/m donderdag
van 09:00-12:00
Laat je nummer achter en we bellen je gratis terug!
Mails beantwoorden we binnen 5 werkdagen: info@digitalebalans.nl
AI staat voor artificial intelligence, oftewel kunstmatige intelligentie. Dat klinkt misschien als iets uit de toekomst, maar je gebruikt het waarschijnlijk al dagelijks zonder het door te hebben. Wanneer Netflix een serie aanraadt, wanneer je telefoon je gezicht herkent om te ontgrendelen, of wanneer je iets vraagt aan Siri of Google Assistent. Dat is allemaal AI.
AI leert van voorbeelden in plaats van vaste regels te volgen. De meeste AI-programma’s die we nu gebruiken kunnen maar één ding goed, zoals gezichten herkennen of spam filteren. En hoewel AI steeds slimmer wordt, begrijpt het niet echt wat het doet. Het herkent vooral patronen.
In dit artikel lees je nog meer over wat AI is, hoe het werkt, en welke verschillende soorten er zijn. Heb je over dit onderwerp een vraag? Neem dan contact met ons op.
Simpel gezegd is AI een computerprogramma dat taken kan uitvoeren waar je normaal gesproken menselijke intelligentie voor nodig hebt. Denk aan dingen in de wereld kunnen herkennen, beslissingen nemen, taal herkennen of patronen ontdekken. Dit zijn dingen waar mensen heel erg goed in zijn. Met AI zijn er nu allemaal programma’s en apps beschikbaar die dit soort taken óók kunnen doen.
Traditionele computerprogramma’s volgen strikte regels die een programmeur heeft bedacht. Bijvoorbeeld “Als iemand op de rode knop klikt, sluit dan het venster op je scherm.” De computer doet precies wat er geprogrammeerd is. Niet meer en niet minder.
Maar AI werkt anders! In plaats van alle regels van tevoren in het programma in te voeren, kan een AI-programma zelf dingen leren. AI krijgt voorbeelden te zien en ontdekt daar zelf patronen in. Een beetje zoals een kind dat leert: niet door alle regels uit te leggen, maar door heel veel voorbeelden te zien en er zelf achter te komen wat wel en niet werkt.
Het proces waarmee AI kan leren bestaat over het algemeen uit drie fases: training met heel veel data, patronen vinden, en die geleerde patronen toepassen op nieuwe situaties.
Het AI-systeem krijgt eerst heel veel voorbeelden te zien, die worden gegeven door degene die de AI maakt. Die voorbeelden noemen we trainingsdata. Hoe meer voorbeelden, hoe beter het systeem leert wat de bedoeling is. Bij een spamfilter leert AI door jouw keuzes welke e-mails waarschijnlijk wel of niet in de spam-map terecht moeten komen. Bij AI om foto’s te herkennen krijgt de AI heel veel foto’s te zien waarvan een mens heeft aangevinkt of het om bijvoorbeeld een hond of om een kat gaat.
Het systeem gaat daarna zelf op zoek naar patronen en verbanden. Dit gebeurt vaak met ingewikkelde wiskundige formules, maar het idee is simpel: Wat maakt dat een e-mail spam is? En wat hebben alle hondenfoto’s gemeen? Het AI-systeem probeert een eigen idee te krijgen van hoe de wereld werkt.
Na de training kan de AI zijn kennis toepassen op nieuwe gevallen. Als je dan een foto laat zien die de AI nog nooit eerder heeft gezien, dan kan het programma toch zeggen: “Dit is waarschijnlijk een hond.”
Het is wel belangrijk om te weten dat AI fouten kan maken, en die ook regelmatig maakt. Soms kan het bijvoorbeeld een vos aanzien voor een hond, of begrijpt het een vraag verkeerd. Dat komt omdat AI geen échte intelligentie is: het herkent patronen, maar begrijpt niet wat het doet. Een AI die honden kan herkennen, heeft geen idee wat een hond is! Het herkent alleen kenmerken en patronen die vaak bij honden horen.
Veel van de AI die we vandaag gebruiken valt onder de categorie ‘smalle AI’. Dat zijn systemen die één heel specifieke taak heel goed kunnen, maar daarbuiten niets. Voorbeelden zijn AI zoals de gezichtsherkenning op je telefoon, de spamfilter in je email, en een programma dat het weer kan voorspellen. Deze vormen van AI zijn heel goed in hun eigen ding, maar kunnen bijvoorbeeld geen teksten schrijven of vertalen.
Dit is een bijzondere categorie van smalle AI die de afgelopen jaren enorm populair is geworden. Generatieve AI heet zo omdat die nieuwe dingen kan maken (genereren): teksten, afbeeldingen, muziek of programmeercode. Bekende voorbeelden hiervan zijn ChatGPT, Gemini en Claude (voor teksten), maar ook Midjourney en Dall-E (om afbeeldingen mee te laten maken). Hoewel dit soort AI-programma’s heel handig kunnen zijn, roepen ze ook vragen op. Wat doet het met onze eigen vaardigheden als AI van ons taken overneemt? Verandert het onze eigen manier van dingen leren? En wordt dat dan makkelijker of moeilijker voor ons? Welke invloed heeft het op ons vermogen om dingen te leren doen? Daarover kun je meer lezen in dit artikel.
Hoewel generatieve AI indrukwekkend is en veel kansen biedt, zijn er ook zorgen. Deze systemen hebben geleerd van miljoenen teksten, foto’s en kunstwerken. Vaak zonder toestemming van de makers en zonder dat zij ervoor betaald zijn.
Stel je voor: je bent kunstenaar en ontdekt dat een AI jouw werk heeft gebruikt om te leren, zonder dat je het wist. Veel makers zijn daar boos over en maken zich zorgen dat AI hun werk nabootst of zelfs hun baan overneemt. Daarnaast kun je met generatieve AI makkelijk nepfoto’s, -video’s en -teksten maken die heel echt lijken. Of iemands stem namaken. Dat kan ervoor zorgen dat je niet meer weet wat echt is en wat niet, bijvoorbeeld in het nieuws.
Moet je toestemming vragen als je het werk van een ander wilt gebruiken? Moet je betalen? En wie is eigenlijk de maker van iets dat door AI is gemaakt? En welke informatie van ons wordt er gebruikt voor AI-programma’s? Hoe voorkomen we misbruik? Simpele antwoorden zijn er nog niet, maar het is wel belangrijk dat we erover blijven nadenken.
‘Brede AI’ is AI die verschillende taken kan uitvoeren en nieuwe dingen kan leren. Een systeem dat én kan schaken, én een gesprek kan voeren én een rekenprobleem kan oplossen. Dat zou een voorbeeld zijn van brede AI. Deze vorm van AI lijkt op wat wij als mensen ook kunnen doen. Deze vorm van AI wordt ook wel artificial general intelligence (AGI) genoemd. Daarnaast is er ook nog artificial super intelligence (ASI) mogelijk. Dat zou AI zijn die niet alleen net zo slim is als de mens, maar nóg slimmer.
Dit soort brede AI bestaat op dit moment (nog) niet. Het is wel de vorm van AI waar veel wetenschappers aan werken, en die je vaak ziet in films (bijvoorbeeld wanneer robots zich gaan gedragen als mensen). Maar in het echt hebben we dit nog niet. De meningen verschillen ook over of en op welke termijn we dit soort AI zullen hebben.
Terwijl AI steeds slimmer wordt en steeds meer kan, blijft het belangrijk om kritisch te blijven. AI maakt fouten, neemt soms vooroordelen uit trainingsdata over en weet niet altijd wat wel en niet waar is. Het kan een handige tool zijn, maar je moet wel begrijpen hoe het werkt en wat de beperkingen zijn. Dat is precies wat je nu weet!
Meer weten over hoe je verantwoord om kunt gaan met AI? Lees daar hier meer over.
Wil je meer weten over digitale balans in jouw situatie? Voor jezelf, voor je kind of een andere naaste? Onze experts helpen je graag verder. Je kunt anoniem met ons bellen of mailen. Via de website kun je ook een terugbelverzoek achterlaten of meteen je vraag stellen.
Geopend op maandag t/m donderdag
van 09:00-12:00
Laat je nummer achter en we bellen je gratis terug!
Mails beantwoorden we binnen 5 werkdagen: info@digitalebalans.nl