Hoppa till huvudinnehåll

AI kan både hjälpa och stjälpa förtroendet för vården

Artificiell intelligens kan spara tid i läkarens arbete att ställa diagnoser vilka också blir träffsäkrare. Men läkaren bör också förstå och kunna förklara datorns beslut för patienten, annars kan tilliten äventyras, menar AI-forskaren Stefan Larsson. Med AI ställs vi också inför ett vägval: Vill vi spegla eller förändra världen?

Kristina Lindgärde – Publicerad den 13 September 2021

Läkare tittar på röntgenplåt. Foto: MostPhotos
Spelar det roll för patientupplevelsen om det är AI eller läkare som analyserat provsvaret? Det är en av flera frågor som forskare undersöker. Foto: Mostphotos.

Stefan Larsson är forskare vid Lunds tekniska högskola inom området teknik och social förändring och intresserar sig speciellt för hur autonoma, det vill säga självständiga och självlärande beslutssystem, påverkar samhället och individen.

När det gäller medicin väger forskare nytta med risker när AI ska upptäcka tumörer på digitala röntgenbilder, välja behandling vid akut bröstsmärta och dra slutsatser ur omfattande register om människors hälsa. 

Nyckelfrågor är tillförlitlighet, transparens, representativitet, ansvarsfördelning och tillit. Målet är att komplettera människans goda sidor med maskinens supersökförmågor. 

Transparens ökar chansen till tillit

En fråga som intresserar Stefan Larsson är tillit och människors upplevelser. Inte minst i vårdsektorn är tillit ett nyckelbegrepp.

– Hela upplägget bygger på tillit. Patienten, som ofta befinner sig i en väldigt svag och utsatt position, tillåter behandlingar och ingrepp som kan upplevas väldigt inkräktande och som utförs av personer som på grund av sin profession befinner sig i en stark position, säger Stefan Larsson.

Äventyras tilliten när verktygen successivt blir än mer svårbedömd för vanligt folk? Här pågår mycket forskning. Enligt Stefan Larsson behöver kanske inte varje patient förstå vad som ligger bakom varje datorgenererad rekommendation, men exakt hur information och beslutsfattande balanseras är en nyckelfråga för tillförlitlig AI-användning.

– Transparens är ett nyckelelement i förtroendebyggandet. Vi försöker förstå var i processen det är viktigast med transparens, förklarbarhet i ett enskilt besluts motiv eller granskningsbarhet i hela systemet?

En risk är att underlaget blir skevt och missgynnar vissa grupper…

En annan återkommande fråga i dessa och andra projekt är partiskhet, eller ”social bias” som begreppet kommit att kallas. Medvetenheten om denna risk för systematisk snedvridning i relation till tillämpade AI-system och maskininlärning är förhållandevis ny, enligt Stefan Larsson.

Det var bara för fyra år sedan en amerikansk studie kom fram till att kommersiella mjukvaror för ansiktsigenkänning visade sig fungera mycket mer precist om ansiktet hörde till en vit man jämfört med en mörkhyad kvinna.

En annan studie har visat att mjukvara för att upptäcka hudcancer fungerar bättre på ljus än mörk hy. En tredje har visat hur amerikanska domstolars användande av en riskbedömningsalgoritm på felaktiga grunder per automatik bedömde risken för återfallsförbrytelser vara högre bland afroamerikaner än vita amerikaner.

– Policysvaret på denna typ av problem är ofta att efterlysa mer representativ data för alla typer av grupper. Det syns nu senast i EU-kommissionens förslag på AI-rättsakt och i rekommendationer från WHO. Frågan är dock när det är lösningen på problemet.

… å andra sidan finns risk för att rätt programmerad AI förstärker orättvisor

I takt med att program blir allt bättre på att spegla verkligheten någorlunda rättvisande uppstår nästa problem: Vill vi reproducera skevheter i samhället, även om de råkar vara korrekta? Vill vi ha riktade jobbannonser om högavlönade jobb till män som ju oftare söker högavlönade jobb och har högre lön? Konsekvensen av en korrekt spegling av sakernas tillstånd blir att AI inte bara speglar orättvisor, utan rentav riskerar att förstärka dem.

– Det är en fråga av en annan karaktär. Här kan det vara samhällsstrukturerna som är källan till problemet. Det ger en mer normativ fråga som inte säkert har någon teknisk eller optimerbar lösning inom räckhåll.

Däremot har man blivit alltmer medveten om att kulturella och samhällsvetenskapliga behöver vävas in i ett tidigt skede.

– Det går inte längre att i slutfasen komma på att, ”just det, det vore bra med en etiker i projektet”. Det tycks krävas ett flervetenskapligt förhållningssätt för att bygga bra AI-produkter.

Stefan Larsson. Foto: Sara Arnald

Artikeln har ursprungligen publicerats i Apropå där forskare kommenterar aktuella samhällshändelser.