Hoppa till huvudinnehåll

Etisk guide för AI och maskininlärning på gång

I takt med att AI och maskininlärning tar allt större plats i samhället följer en rad etiska och normativa utmaningar. Det kan handla om att en aningslös hantering av bottar och automatiserade kommunikationssystem förstärker skevheter och orättvisor i samhället. Eller att bristen på transparens och förklarbarhet gör tilliten till teknologierna låg, även när de presterar bra.

– Publicerad den 18 September 2019

Huvud med nollar och ettor. Illustration.
Bild: MostPhotos

Därför behöver sådana här icke-tekniska aspekter med tillämpad AI beforskas och utvecklas, menar den samhällsvetenskaplige teknikforskaren Stefan Larsson, som är med i ett nytt projekt som finansieras av Vinnova med tio miljoner kronor.

Syftet är att tillsammans med kollegor från olika discipliner, i samverkan med företag och myndigheter – som medfinansierar med lika mycket – utveckla ett ramverk för etiskt, rättsligt och socialt hållbar användning och utveckling av AI.

Projektet kommer ha fyra fokusområden: media, medicin, handel och offentlig verksamhet. De olika områdena brottas med olika utmaningar, enligt Stefan Larsson:

– Även om liknande etiska och rättsliga utmaningar kring ansvarsfördelning, förklarbarhet och tillit finns inom alla dessa områden, så är det viktigt att förstå tillämpningarna utifrån var och en kontext, säger han.

Inom till exempel offentlig verksamhet kan AI, rätt hanterat, ge stora effektiviserings- och därmed besparingsvinster samt bättre möjlighet till likabehandling, spår Stefan Larsson.

Man kan tänka sig en ökad rättssäkerhet och upptäckt av bias i mänskligt beslutsfattande, men det ställer stora krav på själva förändringsprocessen, utvärderingen av AI-systemen, och den tillämpande organisationen, säger han.

– Inom media och handel ökar AI möjligheten till allt mer individuellt riktad reklam och rekommendationer. Vilket potentiellt kan ge oerhört individuellt relevanta tjänster, men samtidigt leda väldigt fel, poängterar Stefan Larsson och nämner spelreklam till spelmissbrukare som ett exempel.

Eftersom mycket av utveckling av AI sker i en näringslivskontext, men appliceras på både konsumenter, medborgare och patienter, behöver vi se till att ta fram mer flervetenskapligt förankrad kunskap om konsekvenser och betydelser, säger han.

Likaså behövs också praktiskt användbara styrmekanismer och ramverk som kan bidra till en god användning i människans tjänst. Målet med projektet är att utveckla ett applicerbart förhållningssätt för ”hållbar AI” som förenar både teknikvetenskapliga, samhällsvetenskapliga och rättsvetenskapliga kunskaper.

Om projektet 

I det flervetenskapliga projektet, Ramverk för hållbar AI, som koordineras av AI Sustainability Center i Stockholm, arbetar datavetare, medicinare, jurister och samhällsvetare ihop. Dessutom ingår forskare från andra universitet, bland annat Linköpings universitet, KTH och Karolinska institutet. Telia, Google och advokatbyrån Cirio med flera ingår som industriella partners och Skatteverket, Stockholm och Malmö Stad som offentliga myndighetspartners.

Projektledare på LU-sidan är Stefan Larsson, Institutionen för teknik och samhälle och medforskare är Jonas Ledendal, institutionen för handelsrätt. Projektet finansieras i Steg 2 av Vinnovas program för s.k. Utmaningsdriven innovation (UDI). Stefan Larsson är också en av initiativtagarna till det universitetsövergripande samverkansinitiativet AIML (AI Lund).

Länkar

Två andra AI-projekt som Stefan Larsson är med i