Genom att surfa vidare godkänner du att vi använder cookies. Jag förstår

Hållbar AI för Sverige

kaffe-bulle-960640.jpg

Anna Felländer är medlem i regeringens digitaliseringsråd och arbetar med ett Vinnova-projekt om hållbar AI. Det kan behövas, för algoritmer kan lätt lura oss till att göra saker som inte är bra, som att skapa ett sockerberoende enbart för att öka försäljningen. 

AI dyker upp överallt och något som det forskas mycket kring just nu är hur samhället får till en etisk och moralisk intelligens. Anna Felländer arbetar med just detta och ger ett exempel från en internationell kaffekedja där AI användes för att skräddarsy caféets tjänster och öka kedjans försäljning. 

 Algoritmen kände av när under dagen den kunde rekommendera en kaffe eller bulle för att bättra på blodsockerhalten. Sedan var den också väldigt duktig på att tipsa om andra typer av service vid kundens köp av kaffe. Resultatet var så effektivt att försäljningen gick upp med 6 000 kalorier per konsument.

anna-felländer-redigerad.jpg

Anna Felländer

Anna Felländer är affilierad fakultet vid KTH, medlem i regeringens digitaliseringsråd och styrelsemedlem i Transportstyrelsen. 

 Algoritmen lärde sig att det finns en högre marginal på socker och munkar och kunde pressa på till att skapa ett sockerberoende. Det är ett exempel på när vinsterna med AI är förföriska och därför är det viktigt att föra etiska värderingar tillbaka på agendan. Företag har självklart sådana sedan tidigare, men de kan te sig annorlunda inom AI-ramverket, säger hon på Internetdagarna. 

Fyra fällor

Därför har nu Anna Felländer i projektet hållbar AI, tillsammans med Vinnova-gruppen, tagit fram fyra negativa etiska fallgropar kring AI och etik.

Den första fällan är missbruk av AI och data. Även om man är GDPR-compliant så kan AI skapa något som för dig som individ är integritetskränkande, eftersom att du arbetar på öppen data. Fastän vi genom GDPR tror oss ha hand om vår data så är det svårt att överblicka hur den används, menar Anna Felländer.

Nummer 2 handlar om att AI inte är neutralt, utan det är upp till personen som programmerar. Detta kan göras både omedvetet och medvetet.

– De som programmerar har ofta begränsad kunskap kring vad påverkan blir, inte bara vad gäller värderingar utan även vilken konsekvens det får. Till exempel blev Amazon anklagade för att vara diskriminerande när viss marknadsföring inte kom ut i vissa områden där mest svarta människor bodde. Då hade algoritmen lärt sig att det inte var kostnadseffektivt att rikta reklam dit.

Träning ger färdighet

En tredje fallgrop handlar om otränad data. Här finns det exempel på face recognition-applikationer som används idag som inte tränats tillräckligt på mörkhyade kvinnor. Detta är beklagligt men också något som kan skada förtroendet för applikationerna och teknologin som sådan, menar Anna Felländer.

Sista fällan är partiskhet i data. Det handlar om när data inte beskriver verkligheten eller den önskade verkligheten.

– Ett exempel kan vara en rekryteringsapp som arbetar med att rekommendera vd-kandidater där man sett att beteendena och kvalitéerna som gett upphov till befordring gjorts på en manlig population eller en bransch som varit väldigt mansdominerad, vilket förstärker normerna.

Det vill Anna Felländer, och de andra i projektet, arbeta emot samtidigt som de vill förstärka det som är bra med AI-utvecklingen.

– Fallgroparna blir allt fler och vi vill skapa verktyg som gör att vi kan undvika dessa. Kina och USA investerar otroligt mycket i AI-teknik utan att förstå fallgroparna som dyker upp om vi inte styr den rätt, men jag tror att vi i Sverige står väl positionerade på andra sidan myntet och kan skapa en mer hållbar AI.  

30 november 2018 Uppdaterad 7 mars 2019 Reporter Fredrik Adolfsson digit Foto Mostphotos

Rekommenderad läsning