Möjligheter och risker när AI blir en del av arbetslivet

Bild På Ai Verktyg Mats Snäll Och Fredrik Heintz

Mats Snäll på Digg och Fredrik Heintz från Linköpings universitet.

När AI blir en självklar del av arbetslivet ökar både möjligheterna och riskerna. Under Internetdagarna 2025 diskuterades frågor om integritet, skugg-AI, etiska riktlinjer och förtroende – samt hur vi kan använda AI ansvarsfullt i offentlig och privat sektor. 

2 december 2025Uppdaterad 4 december 2025Reporter Sofia HellströmerAIFoto Adobe stock, Digg, Linköpings universitet

I takt med att AI utvecklas ökar användningen av tekniken på våra arbetsplatser. Med det följer nya risker för vår personliga integritet, informationssäkerhet och tillförlitlighet. Hur implementerar vi dessa verktyg på ett säkert sätt? Och vad behöver vi veta när vi använder AI i jobbet? Detta var några av frågorna som diskuterades under panelsamtalet AI på arbetsplatsen – risker och etiska fallgropar, under Internetstiftelsens event Internetdagarna 2025. 

Individens ansvar och skugg-AI 

Mycket handlar om människan – den anställdes etiska moral och ansvar. Kristina Knaving, senior forskare på Rise, lyfter fram skugg-AI som ett av de största säkerhetsproblemen. Fenomenet är en utveckling av så kallad skugg-it då anställda använder digitala verktyg som inte är godkända av organisationen. 

En undersökning från it-bolaget Software AG med 6 000 svarande visar att hälften av kunskapsarbetare använder skugg-AI och skulle fortsätta även vid förbud; en annan studie från AI-bolaget Anagram visar att 45 procent använder förbjudna AI-verktyg i sitt arbete. 

Knaving poängterar att detta inte handlar om oansvariga personer, utan om entusiastiska medarbetare som vill effektivisera sitt arbete. Orsaken? Otydliga riktlinjer och bristande förståelse från organisationen för vad medarbetarna faktiskt gör. 

Generativ AI är här för att stanna, men medför risker som kräver medvetenhet kring resiliens, kontroll, informationssäkerhet och dataskyddsförordningen (GDPR). Knavings ledord är ’värde’ – kvalitet framför kvantitet, samt kunskap om AI enligt AI-förordningen. 

– Anställda måste kunna ifrågasätta AI, och dialogen behöver vara öppen och aktiv mellan organisationen och medarbetarna, säger hon. 

Etisk AI – från värderingar till rutiner 

Robin Teigland, professor vid Chalmers, betonar vikten av etisk AI och lyfter fram den spännande utveckling som samhället står inför. Hon berättar om Frankrikes motsvarighet till Skattemyndigheten, där man kopplat ihop satellitbilder med invånarnas skattedeklarationer, och med hjälp av AI kunnat identifiera de som inte deklarerat sin swimmingpool, vilket är ett lagkrav.  

Hon lyfter även fram AI-projekt som gått fel: som ett fall i Nederländerna där en algoritm byggd på olika dataset resulterade i att 26 000 oskyldiga föräldrar anklagades för bidragsfusk och blev betalningsskyldiga på grund av felaktiga AI-bedömningar.

– Det här är ett exempel på hur många olika delar gick fel på organisationsnivå, säger Teigland. 

Hon återkommer till individens roll: människan måste kontrollera algoritmens resultat och inte blint lita på AI. Och för att lyckas med etisk AI krävs engagemang hos de anställda. Teigland föreslår en lista att arbeta utifrån: Värderingar – individens etiska riktmärke. Dokumentation – visa hur arbetet görs. Människa – AI får inte arbeta helt självständigt. Ansvar – använd godkända verktyg. Rutiner – när och hur AI används. Hållbarhet – tänk långsiktigt för en hållbar framtid. 

Förtroende och paradoxernas tid 

Mats Snäll, senior rådgivare på Digg, har 30 års erfarenhet av offentlig förvaltning och digitalisering. Hans ledord är förtroende. 

– Förtroende är något man förtjänar, men lika snabbt kan förlora, säger han. 

Snäll pekar på paradoxen mellan AI-förordningens riktlinjer och regeringens digitaliseringsstrategi som säger att AI ska implementeras i offentlig förvaltning för att effektivisera leveranserna. Han pekar på flera motsättningar som kan vara svåra att förhålla sig till: säkerhet kontra öppenhet; GDPR kontra individen i centrum; AI-förordningen kontra Förvaltningslagen; riskmedvetenhet kontra innovation.  

Hans slutsats? Vi människor ansvarar för AI och därför måste offentlig förvaltning arbeta med AI på ett etiskt och ansvarsfullt sätt. Digg har tillsammans med IMY tagit fram en förtroendemodell för offentlig AI där människans ansvar står i centrum. 

– AI är fortfarande nytt, så exakt hur vi ska använda det är inte klart. Men att vi ska ta ansvar är en grundförutsättning, säger Snäll. 

Framtidsspaning: AI som lärande system 

Fredrik Heintz, professor i datavetenskap vid Linköpings universitet, forskar på tillitsfull AI och kombinationen av maskininlärning och maskinresonemang. Hans framtidsspaning är tydlig: 

– ”Lärande” kommer bli den enskilt viktigaste förmågan i framtidens AI-användning. 

Idag används AI främst för individuell förstärkning – så kallad AI-augmentering. Nästa steg är en förstärkt AI-organisation, men där är vi inte än. Heintz belyser det faktum att tiden det tar för ett AI-verktyg att utföra samma arbete som en människa ständigt förkortas. 

– Potentialen med AI kommer bara att öka; det kommer bli både högre kvalitet och mer komplexitet, avslutar Fredrik Heintz.

Voisters nyhetsbrev

Rekommenderad läsning