KBT online till AI-chattbottar: Möjligheter och risker med digital vård

Almira Osmanovic Thunström, doktorand vid Göteborgs universitet.
Forskare har undersökt hur digitala plattformar kan erbjuda effektiv självhjälp mot ensamhet och hur chattbottar kan avlasta vården vid mild psykisk ohälsa. Utvecklingen öppnar upp för nya möjligheter, men också utmaningar vad gäller säkerhet och AI:s förmåga att styra in på destruktiva spår.
Möjligheten till digital självhjälpsterapi växer, och med den förändras synen på behandling av psykisk ohälsa. En forskare som utforskat detta är Anton Käll vid Linköpings universitet. I sitt doktorandarbete 2021 undersökte han hur man kan behandla ensamhet på distans. Även om det kan låta motsägelsefullt att behandla just ensamhet digitalt, förklarar han att logiken finns där:
– De kognitiva mekanismerna bakom ensamhet liknar dem vid ångest och depression, och där har internetbehandling med kognitiv beteendeterapi (KBT) visat sig fungera väl. Vi tog därför KBT-tekniker som hjälper vid annan problematik och anpassade dem till ensamhet, säger Anton Käll till Dagens Industri.
I pilotundersökningen användes en digital läroplattform där 73 deltagare fick information, verktyg och övningar som de utförde på egen hand, med möjligheten att ha skriftlig kontakt med en handledare. Läroplattformen representerar verktyget men det är i verkliga livet som strategierna måste tillämpas för att skapa en förbättring.
– På så sätt är egentligen all terapi självhjälp, säger Anton Käll.
Chattbottar som komplement i vården
En annan som utforskat den digitala potentialen vid behandling av psykisk ohälsa är Almira Osmanovic Thunström, doktorand vid Göteborgs universitet. För fem år sedan, under pandemin, började hon tillsammans med sitt forskarlag utveckla en chattbot för att lindra mild psykisk ohälsa och därmed underlätta för vården.
– Vi såg en drastisk ökning av personer som sökte hjälp för att de mådde dåligt, ofta på grund av stress och sömnproblem – sådant man kan jobba ganska självhjälpsbaserat med, säger Almira Osmanovic Thunström.
I en enkätundersökning undersökte därför Almira Osmanovic Thunström och hennes forskarlag vad allmänheten kände inför en digital hjälprobot och vad en sådan i så fall behövde erbjuda. Utifrån svaren byggde de Betsy, som använder förprogrammerade svar från vårdpersonal. Betsy ska fungera som ett första stöd och lotsa användaren vidare, utan att ersätta mänsklig kontakt.
– Vi byggde Betsy för att strukturera upp en bra grund för en framtida AI-driven chattbot. Just nu undersöker vi säkerhetsriskerna med stora språkmodeller som GPT-4, om man skulle vilja integrera delar av den tekniken, säger Almira Osmanovic Thunström.
AI: Utmaningar och allvarliga risker
Forskningen kring att integrera mer avancerad AI har dock avslöjat betydande säkerhetsrisker. Dessa modeller kan nämligen lätt manipuleras till att ge destruktiva och till och med livsfarliga råd.
– Med lite manipulation hittar de gärna på grova, grafiska och innovativa sätt att ta livet av sig, förklarar hon.
Detta blev tydligt när Almira Osmanovic Thunström interagerade med WHO:s hälso-AI Sarah.
– Det var enkelt att få henne att både kalla mig idiot, värdelös och ge mig suicidrekommendationer.
Betsy ska utvecklas till att bli en säker support
Trots utmaningarna fortsätter utvecklingen av Betsy. Prototypen har nu fått finansiering för att utvecklas till en färdig produkt. Målet är att skapa ett säkert och hjälpsamt verktyg som känns mänskligt utan att kompromissa med säkerheten. Digitala verktyg som Betsy är tänkta som komplement, inte för att ersätta mänsklig vård.
– Det finns mycket känslor kring bristen på tillgänglighet i vården. Jag tror att det har funnits en oro att lösningen blir robotar. Det kommer det absolut inte att bli i det här fallet, säger Almira Osmanovic Thunström.
Läs mer om ämnet: