Vooroordelen in AI

AI-systemen kunnen vooroordelen bevatten. Maar hoe komt dat? En hoe ga je ermee om?
Houten pionnetjes staan in een cirkel om één rood figuurtje heen, dat als buitenstaander of mikpunt wordt uitgelicht.

Vooroordelen in AI

In het kort

Heb je wel eens gehoord dat AI-systemen sommige mensen oneerlijk behandelen? Misschien las je dat een sollicitatie-app vrouwen benadeelt. Of dat gezichtsherkenning minder goed werkt bij mensen met een donkere huidskleur. Hoe kan dat? AI is toch een computer, die kan toch niet discrimineren?

Helaas is het niet zo simpel. AI-systemen kunnen vooroordelen bevatten over bijvoorbeeld geslacht, huidskleur of achtergrond. Dit kan vervelende of zelfs schadelijke gevolgen hebben voor mensen. Maar hoe komt dat? En wat kunnen we eraan doen? In dit artikel leggen we uit hoe vooroordelen in AI ontstaan en wat de gevolgen daarvan zijn.

Heb je een vraag over dit onderwerp? Neem contact met ons op.

Wat zijn vooroordelen in AI?

Vooroordelen zijn vaste ideeën over bepaalde groepen mensen. Bijvoorbeeld de gedachte dat vrouwen beter zijn in verzorgende beroepen. Of dat mensen met een bepaalde achtergrond minder betrouwbaar zijn. Mensen hebben van nature vooroordelen, vaak zonder dat ze het door hebben. Dat is een eigenschap van hoe onze hersenen werken: ze proberen informatie te ordenen door patronen te herkennen. Dat onze hersenen in patronen denken kan heel handig zijn, maar ook voor problemen zorgen.

Het vervelende is namelijk dat AI-systemen deze menselijke vooroordelen kunnen overnemen. AI leert namelijk van gegevens die door mensen gemaakt zijn (Lees ook “Wat is AI en hoe werkt het?”). En als die informatie vooroordelen bevat, dan leert de AI die vooroordelen ook. Het resultaat is een systeem dat bepaalde groepen mensen anders behandelt dan andere groepen. Vaak heeft niemand dat expres gedaan.

Hoe komen vooroordelen in AI terecht?

Er zijn verschillende manieren waarop vooroordelen in AI-systemen kunnen komen. Het belangrijkste probleem zit bij de gegevens waarmee AI gemaakt wordt.

Vooroordelen in de gegevens die AI krijgt

AI leert van voorbeelden. Als een AI leert om CV’s te bekijken, dan krijgt het bijvoorbeeld duizenden eerdere sollicitaties te zien. Het leert welke kandidaten zijn aangenomen voor een baan, en wie niet. Maar stel dat in het verleden vooral mannen zijn aangenomen voor leidinggevende functies. Dan kan de AI leren dat ‘man zijn’ een belangrijk kenmerk is voor die functie, en vinden dat mannen geschikter zijn voor dat soort banen. Het systeem neemt dan het vooroordeel over dat al in de data zat.

Dit gebeurde bijvoorbeeld bij Amazon1Bron: Insight – Amazon scraps secret AI recruiting tool that showed bias against women | Reuters. Dat bedrijf maakte tussen 2014 en 2017 een AI om sollicitanten te selecteren voor technische functies. Het systeem behandelde vrouwen slechter. Dat kwam omdat het was getraind met gegevens van vooral mannelijke werknemers in technische functies. Het systeem gaf bijvoorbeeld lagere scores aan CV’s waarin het woord “vrouwen” voorkwam, zoals bij “aanvoerder vrouwenschaakclub”. Amazon moest het systeem uiteindelijk stopzetten omdat het bedrijf er niet in slaagde om de vooroordelen eruit te halen.

Te weinig goede voorbeelden

Een ander probleem ontstaat wanneer er te weinig voorbeelden zijn van bepaalde groepen in de gegevens die AI krijgt. Stel dat een AI die gezichten herkent vooral is getraind met foto’s van mensen met een lichte huidskleur. Dan kan het systeem moeite hebben om gezichten van mensen met een donkere huidskleur te herkennen.

Sterker nog, we weten dat dit gebeurt. Onderzoek van het MIT en Microsoft uit 2018 heeft aangetoond dat gezichtsherkenningssystemen inderdaad veel minder goed werken bij mensen met een donkere huidskleur en bij vrouwen. De foutmarge bij het herkennen van lichtgetinte mannen was slechts 0,8%, maar bij donkergekleurde vrouwen liep dit op tot meer dan 34%. Dit kan ernstige gevolgen hebben, bijvoorbeeld wanneer deze systemen worden gebruikt door de politie of bij grenscontroles. In de VS zijn er zelfs gevallen bekend waarbij zelfrijdende auto’s voetgangers met een donkere huidskleur niet goed detecteerden, wat tot ongelukken leidde.

Keuzes van de makers

Ook de mensen die AI-systemen maken kunnen vooroordelen toevoegen. Welke informatie kiezen ze om aan de AI te geven? Hoe wordt succes van het AI-model gemeten? Al deze keuzes kunnen invloed hebben. Ze bepalen of een systeem eerlijk is voor iedereen.

Als een team van AI-ontwikkelaars weinig verschillend is (bijvoorbeeld alleen maar mannen, of alleen maar witte mensen), lopen zulke teams meer kans om bepaalde problemen over het hoofd te zien. Iemand die zelf nooit discriminatie heeft meegemaakt, denkt misschien niet na over hoe een systeem mensen met een andere achtergrond slechter kan behandelen.

Wat betekent dit voor jou?

Vooroordelen in AI zijn om verschillende redenen problematisch. Ten eerste is het gewoon oneerlijk. Iedereen verdient een gelijke kans. Of het nu gaat om een baan, eerlijke behandeling door de politie, of goede medische zorg. AI-systemen die vooroordelen bevatten kunnen deze ongelijkheid groter maken.

Ten tweede kan het gevaarlijk zijn. Verkeerde beslissingen op basis van vooroordelen kunnen levens veranderen. Iemand die onterecht als ‘hoog risico’ wordt gezien. Iemand die een baan misloopt. Of iemand die een verkeerde diagnose krijgt. Deze mensen ondervinden daar directe schade van.

En tot slot: veel mensen vertrouwen erop dat AI eerlijk is. “Het is gewoon een computer, die kan niet oneerlijk zijn.” Maar dat klopt niet. Dit verkeerde idee kan ervoor zorgen dat vooroordelen juist minder snel worden opgemerkt en aangepakt.

Waar kun je zelf op letten?

Als gebruiker van AI-systemen kun je ook een rol spelen. Hier zijn een paar dingen om rekening mee te houden:

Wees kritisch op de resultaten

Vraag je af: zou dit resultaat anders zijn geweest voor iemand met een andere achtergrond? Als een AI bijvoorbeeld vacatures voorstelt of teksten schrijft, let dan op of bepaalde groepen over- of ondervertegenwoordigd zijn.

Besef dat jouw input ook gebruikt wordt

Wat jij aan een AI-systeem vertelt of vraagt, kan gebruikt worden om die AI verder te trainen. Als jij vooroordelen laat zien in je gesprekken met AI, bestaat de kans dat het systeem die overneemt. Probeer dus bewust te zijn van hoe je dingen formuleert.

Deel je zorgen

Als je denkt dat een AI-systeem oneerlijk is, meld het dan. Dit kan bij het bedrijf dat de AI maakt, bij je werkgever als het om werksituaties gaat, of via consumentenorganisaties. Alleen door hierover te praten kunnen we ervoor zorgen dat AI beter wordt.

Blijf jezelf informeren

De technologie ontwikkelt zich razendsnel. Blijf jezelf informeren over hoe AI werkt en wat de risico’s zijn. Hoe meer mensen begrijpen hoe AI werkt, hoe beter we samen kunnen zorgen voor eerlijke systemen.

Kortom

AI-systemen kunnen vooroordelen bevatten. Deze vooroordelen ontstaan doordat AI leert van gegevens die door mensen zijn gemaakt. En mensen hebben nu eenmaal vooroordelen. Vooroordelen in AI kunnen mensen benadelen bij sollicitaties, in de rechtspraak, in de gezondheidszorg en op sociale media.

Wees daarom kritisch op de resultaten van AI. Vraag je af: zou dit resultaat anders zijn geweest voor iemand met een andere achtergrond? Besef dat jouw interacties met AI ook worden gebruikt om systemen verder te trainen. En als je denkt dat een systeem oneerlijk is, deel je zorgen dan met anderen. Alleen door alert te blijven kunnen we ervoor zorgen dat AI voor Onderzoek van het MIT en Microsoft uit 2018 íedereen werkt, niet alleen voor sommigen.

Wil je meer weten over AI? Bekijk dan ook ons artikel Wat is AI en hoe werkt het?

Liever iemand spreken?
We zijn er voor je.

Wil je meer weten over digitale balans in jouw situatie? Voor jezelf, voor je kind of een andere naaste? Onze experts helpen je graag verder. Je kunt anoniem met ons bellen of mailen. Via de website kun je ook een terugbelverzoek achterlaten of meteen je vraag stellen.

  • Echte experts, geen AI
  • Anoniem
  • Deskundig advies

📞 Bel via 0900-1996

Geopend op dinsdagen van
09:00-12:00 en van 13:00-17:00

🔔 Doe een terugbelverzoek

Laat je nummer achter en we bellen je gratis terug!

📩 Stuur een bericht

Mails beantwoorden we binnen 5 werkdagen: info@digitalebalans.nl

Lees meer in de categorie Alles over AI

Vooroordelen in AI

Hoe komt het dat AI vooroordelen bevat?

Wat is AI en hoe werkt het?

Misschien hoor je steeds vaker over AI. Maar wat is AI eigenlijk?