Mindre transparens med mänskliga AI-röster

Telefon Forskning AI

AI-utvecklingen går mot alltmer människoliknande drag. Forskning visar att avancerade AI-system gör det allt svårare att uppfatta om det är en människa eller robot på andra änden av telefonen, något som kan komma att påverka vårt förtroende för varandra.

Jonas Ivarsson och Oskar Lindwall, professorer vid Göteborgs Universitet, har i en ny undersökning studerat tre olika typer av inspelade samtal där ena parten utgjorts av ett AI-system. Syftet med studien har varit att undersöka hur människor tolkar och förhåller sig till AI-typiska beteenden. 

I studien tar de upp ett exempel där en misstänkt bedragare ringer upp vad han tror är en äldre man. I stället blir han kopplad till ett datorsystem där han får kommunicera med förinspelade loopar i form av ett AI-system. Bedragaren lyssnar på mannens något förvirrade, upprepade berättelser och försöker trots detta genomföra sitt bedrägeriförsök.

– Vi har tittat på hur lång tid det tar innan de förstår att det är ett tekniskt system och varför det är så svårt. Ibland pratar de i en timme med det här systemet, säger Oskar Lindwall, professor i kommunikation.

Beteenden som avslöjar AI:n

Forskarna upptäckte ett antal beteenden i samtalen som antydde att en av parterna var en röstbaserad inaktiv tjänst. Det rörde sig bland annat om pauser i samtalet, vilket kunde tolkas som att AI:n processade det som sagts. Om den som ringde upp var alltför rakt på sak, kunde beteendet tolkas som socialt inkompetent.

– En följd av att inte kunna vara helt säker på avsikten och identiteten hos den man interagerar med, kan vara att man blir överdrivet misstänksam även när det inte finns fog för det, säger Jonas Ivarsson, professor i informatik.

Syntetisk röst kan vara att föredra

− Om jag vill ha en av mina artiklar upplästa för mig, då kan det få vara en väldigt personlig röst. Gärna författarens röst. Det skulle jag inte ha något emot. Men det kan också finnas något problematiskt med den strävan, speciellt i situationer där det inte är tydligt vem man kommunicerar med, säger Oskar Lindwall.

I exemplet med ”den äldre mannen” tar det lång tid innan bedragaren genomskådar bluffen. Enligt forskarna beror detta på den mänskliga röst som tillämpats samt att det något förvirrade beteendet var trovärdigt på grund av den gamle mannens ålder.

− När en AI har en röst, börjar vi att tillskriva den egenskaper. Vi drar slutsatser om kön, ålder, socioekonomisk bakgrund och liknande, säger Jonas Ivarsson.

Genom mänskligt färgade röster blir det svårare att se tecken som avslöjar att det faktiskt är en dator vi interagerar med. Forskarna menar att det kan bli problematiskt när AI får en egen, såpass mänsklig och trovärdig röst.

− Man bygger en idé om en person bara genom rösten. Den har ett annat fingeravtryck än vad text har och är mycket mer intim. Det går att göra AI som har en välfungerade och vältalig röst som ändå är uppenbart syntetisk, och det skulle öka transparensen.

Studien är publicerad i Computer Supported Cooperative Work: Suspicious Minds: the Problem of Trust and Conversational Agents

8 maj 2023Uppdaterad 2 oktober 2023Reporter Frida JohanssonAI

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

SENASTE NYTT

Stäng