Ai móét afrekenen met gendervooroordelen

Of het zal nooit zijn potentieel bereiken
Artificiële intelligentie (ai) is wereldwijd een gesmaakt gespreksonderwerp aan de eettafel, niet in het minst door ChatGPT, die verbluft met zijn vermogen levensechte teksten en zelfs computercodes samen te stellen. Maar wat gebeurt er als ai verkeerde beslissingen neemt?
Vooroordelen, en met name gendervooroordelen, komen vaak voor in ai-systemen en leiden tot discriminatie en verminderde transparantie tot veiligheids- en privacyproblemen. In het ergste geval beschadigt een verkeerde ai-beslissing een carrière of kost het zelfs levens. Als we het probleem van bevooroordeelde ai niet aanpakken, riskeren we een onevenwichtige toekomst; één waarin ai nooit zijn volledige potentieel als instrument voor het grotere goed zal bereiken.
Ai is slechts zo goed als de gegevens waarop het is getraind. Veel gegevens zijn vandaag getild richting mannen, net als het taalgebruik in zowat alles, van online-nieuwsartikels tot boeken. Uit onderzoek blijkt dat het trainen van ai op Google News-gegevens ertoe leidt dat mannen worden geassocieerd met rollen als ‘kapitein’ en ‘financier’, terwijl vrouwen worden geassocieerd met ‘receptioniste’ en ‘huisvrouw’.
Als gevolg daarvan hebben ai-systemen, getraind op dergelijke bevooroordeelde gegevens en vaak gemaakt door grotendeels mannelijke teams, aanzienlijke problemen gehad met vrouwen, van creditcardmaatschappijen die mannen meer en makkelijker krediet te lijken verlenen, tot in instrumenten die screenen op alles van Covid tot leverziekte. Dit zijn gebieden waar verkeerde beslissingen de financiële of fysieke gezondheid van mensen kunnen schaden.
Dit wordt nog verergerd omdat nog geen kwart van de ai-professionals en datawetenschappers vrouw zijn, aldus onderzoek van het World Economic Forum. Geslacht zelf is ook een complex onderwerp door non-binaire en transgender-uitingen, wat leidt tot meer potentieel voor vooroordelen in alle mogelijke vormen.
Ai is een krachtig instrument dat ons de kans biedt om voorheen onoplosbaar geachte problemen op te lossen, van kanker tot klimaatverandering. Maar als de kwestie van vooroordelen niet wordt aangepakt, dreigt ai onbetrouwbaar en uiteindelijk irrelevant te worden. Als AI-professionals het probleem van de vooringenomenheid niet kunnen aanpakken, zullen deze instrumenten niet bruikbaar zijn en riskeert de kunstmatige-intelligentie-industrie een nieuwe “AI-winter”, zoals in de jaren zeventig, toen de belangstelling voor de technologie opdroogde.