Tijdens de afgelopen Queer & Pride in Amsterdam gaf UvA-student en onderzoeker Jimena Lara ons meer inzicht in de problemen die Artificiële Intelligentie voor de LHBTIQA+ community meebrengt, én mogelijke oplossingen.
De populariteit van de University Pride lezingencyclus tijdens de Queer & Pride Amsterdam illustreert hoeveel behoefte er is aan verdieping en dialoog naast het gebruikelijke feestgedruis bij Pride-events. Jimena Lara, studente aan de Universiteit van Amsterdam, gaf een lezing over de gevaren van Artificiële Intelligentie (bekend als Artificial Intelligence, kortweg AI) in relatie tot de LHBTIQA+ gemeenschap onder de noemer .
AI geweld
Het interdisciplinaire veld waarin politieke sociologie, kunstmatige intelligentie en genderstudies samenkomen omschrijft Lara als ‘AI-geweld’ (eng: AI violence). Tijdens een cursus over AI waarin ze over dit type geweld leerde raakte ze geïnteresseerd in de sociale consequenties ervan. Dat betekent echter niet dat ze zelf tegen AI is, ze wil vooral bewustzijn creëeren over de tekortkomingen ervan en daarbij neemt ze haar inzichten vanuit genderstudies mee.
Datasets en algoritmes
Mocht je je afvragen wat dan gevaren van AI of voorbeelden van ‘AI-geweld’ voor de LHBTQIA+ gemeenschap zijn, denk even aan de manier waarop AI wordt ingericht. Om AI te bouwen gebruiken we bepaalde datasets, maar deze datasets zijn verre van objectief en neutraal, ze bevatten ook maatschappelijke vooroordelen. De vooroordelen die in onze maatschappij leven t.a.v. de LHBTQIA+ gemeenschap kunnen dus terugkomen in AI-applicaties.

Een ander voorbeeld zijn algoritmes die er maar al te vaak van uit gaan dat er slechts twee genders bestaan, terwijl we inmiddels weten dat de wereld een stuk minder non-binair is en dat er veel meer dan twee genders bestaan. Het idee dat over gender leeft in de maatschappij komt dus terug in AI en machine learning (waarbij een systeem zichzelf dingen aanleert op basis van het gebruik van het systeem) kan daardoor leiden tot impliciete gender-discriminatie.
Zet een bedrijf algoritmes in bij sollicitatieprocedures, dan kan je er de donder op zeggen dat mensen die zich als man of vrouw identificeren sneller aangenomen worden dan non-binaire mensen. Het probleem is dat deze vorm van discriminatie impliciet is, en dat het een stuk lastiger te tackelen is dan expliciete discriminatie.
Andere vormen van AI-geweld die Lara noemt zijn surveillance, software die automatisch je gender herkent, en het gebruik van datasets waarin de LHBTIQA+ gemeenschap geheel niet of onvoldoende gerepresenteerd is.
Be the queer eye in AI.Jimena Lara
Oplossingen
Maar als we weten dat er sprake is van dit soort AI-geweld, wat kunnen we er dan tegen doen?
Tijdens haar lezing komt Lara met een keur aan voetnoten en deelt ze inzichten over lopend onderzoek – de oplossingen zijn helaas zo makkelijk nog niet, en er is nog heel veel om uit te zoeken, da’s wel duidelijk.
Toch zijn er oplossingen te bedenken. Als we het hebben over datasets waarin maatschappelijke vooroordelen ingebakken zitten moeten we niet méér data gebruiken (dan blijven die vooroordelen gewoon in de dataset zitten) maar juist toe naar objectievere datasets. En waar de LHBTIQA+ gemeenschap niet of onvoldoende gerepresenteerd wordt in datasets is het doel betere datasets te maken waarin het met de LHBTIQA+ representatie wel goed zit.

Verbeeldingskracht
Lara verwijst ook naar de hoopgevende paper Algorithmic Reparation waarin oplossingen beschreven worden ten aanzien van de inrichting van algoritmes. Naast algorithmic reparation ziet ze ook kansen voor data activism. Wat zoveel betekent als activisme waarbij data gebruikt wordt om bepaalde misstanden aan te kaarten.
Maar de beste oplossing is misschien nog wel re-imagination, ofwel verbeeldingskracht. Waarbij het uitgangspunt is dat wijzelf in staat zijn om te bedenken hoe we het wél zouden willen. Dat proces mogen we niet louter overlaten aan (tech)bedrijven of politici. Neen, zo stelt Lara, we moeten het zélf aanpakken, zélf bedenken hoe we het willen, samenwerking zoeken en dan actie ondernemen.

“Be the queer eye in AI” sluit Lara af, een duidelijker call-to-action had ze niet kunnen geven getuige het applaus en de levendige discussie die na haar lezing ontstaat. Benieuwd of ze ons volgend jaar komt voorzien van een update.