AI med stereotyper

Gengiskanhg (CC BY-SA)

Kunstig intelligens (ofte forkortet til AI) er i vinden som aldri før, og i de kommende åra vil vi denne teknologien få større og større betydning for oss som enkeltindivider. Det går an å filosofere mye rundt hva "intelligens"" er, og hvor "intelligente" maskiner er, men det er greit å vite at disse maskinene programmeres av mennesker og trenes opp av mennesker. En konsekvens av dette er at maskinene arver holdninger til dem som lager og trener dem. Her er et snedig eksempel på akkurat det.

I Google Translate bruker Google kunstig intelligens for å forbedre oversettelsene. De kaller denne teknologien for Google Neural Machine Translation, og hevder at maskinen kan lære seg oversettelser mellom språk helt på egenhånd. Teknologien er utvilsomt veldig imponerede.

Men maskinen er ikke objektiv og nøytral, det arver holdningene våre. Jeg har testet hva slags holdninger Google Translate har til kjønn og yrker, og er ikke veldig overrasket over resultatet. Google Translate er ganske så sikker på hvilke kjønn og yrker som hører sammen.

For å teste dette har jeg oversatt fra norsk til et språk som ikke har noe gramatisk kjønn, og så tilbake igjen. I denne testen valgte jeg å bruke tyrkisk. Jeg startet med denne:

1 - Norsk: Hun er lege

2 - Tyrkisk: O bir doktor

3 - Norsk: Han er lege

I utgangspunktet hadde jeg altså en kvinnelig lege, men når Google Translate måtte ta en avgjørelse om kjønn når jeg oversatte fra et kjønnsnøytralt språk og tilbake til norsk, ble "hun" til "han". La oss prøve igjen, men nå starter vi med en mann i et tradisjonelt "kvinneyrke":

1 - Norsk: Han er sykepleier

2 - Tyrkisk: O bir hemşire

3 - Norsk: Hun er sykepleier

Samme resultat her altså. Når Google Translate måtte ta en avgjørelse om kjønn fra tyrkisk til norsk, ble "han" til "hun". Der hvor Google Translate er usikker på kjønnet, velger den hankjønn til typiske "mannsyrker" og hunkjønn til typiske "kvinneyrker".