»Risken finns att vi bygger in historisk diskriminering«

Kan en sorts Kravmärkning av robotar rädda oss från att artificiell intelligens fattar onda beslut? Virginia Dignum, professor i social och etisk AI vid Umeå universitet, tror det.

Varför blev du intresserad av etisk AI?

– Jag är egentligen inte etiker, utan datavetare. Men under mina år som konsult började jag intressera mig för hur intelligent teknik påverkar människor. Vad händer när en chattbot ersätter människors arbetsuppgifter och hur påverkar det en organisation? Efter några år återvände jag till akademin för att forska om detta. Och det ledde mig in på etiken: om AI-system ska fatta beslut åt oss, hur ska vi då designa de här systemen? Tänk dig att ett AI-system ska bestämma vilken patient som ska prioriteras på akuten, vem är ansvarig för beslutet? Personen som designar det, den som bestämmer att systemet ska användas eller personen som använder det?

För många känns AI fortfarande som något magiskt.

– I grunden är AI ett datorsystem som utifrån sin omgivning kan förstå och agera på eget initiativ. Det kan vara en självkörande bil eller en Netflix-algoritm som rekommenderar nya TV-serier. Det finns många olika AI-tekniker och de flesta använder stora mängder data för att identifiera mönster. En av de vanligaste teknikerna är maskininlärning: genom att till exempel analysera miljontals bilder kan algoritmen skilja katter från hundar. Problemet med många AI-system är att en maskin kan identifiera en katt och ge rätt svar, men vi vet inte riktigt hur den kom fram till svaret.

Vill du läsa mer? 0 kr första månaden!

Vi ger dig oväntade avslöjanden, möten med kulturens mest intressanta personer och berättelserna du inte vill missa. Bli Filter­prenumerant.

Testa nu

Har du redan ett konto? här.

Artikeln publicerades ursprungligen Publicerad 18 november 2019. och är skriven av .