AI-experten: Kraven vi måste ställa och ansvaret vi måste ta

Ali Ny Puff

Ali Leylani skriver bland annat om hur generativ AI kan skapa bilder som är svåra att urskilja från verkligheten, såsom den fejkade bilden på Donald Trump vid hans åtal. Något som i framtiden kan missbrukas kraftigt. Foto: Eliot Higgins @Twitter, Privat

FÖRDJUPNING. AI  och mer specifikt generativ AI har varit på allas läppar det senaste halvåret. Därför har Voister bett AI-experten Ali Leylani att skriva en fördjupande, analyserande text på ämnet. Hur förbättrar alternativt försämrar generativ AI utvecklingen av internet, hur påverkar det vårt samhälle och vårt utbildningsväsende, och vilka steg behöver Sverige ta nu? Dessa är några ämnen som Ali Leylani berör. 

Om Ali Leylani

Ali Leylani är Chief AI Scientist på Granditude och Vice Chairman på ideella organisationen Stockholm AI. 

Klockan slår midnatt, den 14 mars 2023. Timmarna därpå, då morgonen gryr, ska den vetenskapliga världen komma att skakas om i sina grundvalar. OpenAI, en ledande forskningsorganisation, har just annonserat lanseringen av sin senaste skapelse  GPT4. En AI-modell som ska komma att markera en ny era i mänsklighetens historia.

GPT4, liksom sina föregångare, är en särskild typ av datorprogram. En Large Language Model (LLM), designad för att bearbeta naturliga språkdata och därtill generera svar som efterliknar en människas.

Vid första anblick är dess förmågor inget annat än förbluffande. Den genererar poesi, komponerar musik, och kan till och med skapa hela fiktionsverk  nästintill urskillningslöst från de skrivna av mänskliga författare.

Faktum är att dess anmärkningsvärda förmåga att efterlikna verkliga konversationer har fått många att påstå att GPT4 äntligen slagit Turingtestet  en signifikant milstolpe inom datavetenskapen som många trott var oöverkomlig inom överskådlig framtid. Denna enskilda bedrift i sig är ett bevis på mänsklig kreativitet likväl som vetenskapens makt.

I hjärtat av GPT4:s kunskaper ligger dess språkliga kompetens, som den har förvärvat genom att bearbeta och lära sig från enorma mängder data  en betydande del av internet för att vara exakt. Denna data inkluderar allt från böcker och artiklar till sociala medieinlägg och privata meddelanden.

Kanske ännu mer omtalad än GPT4 är dess omedelbara föregångare. Ytterligare en AI-modell som går under namnet GPT3.5, men oftare känd under sitt betydligt mer populära gatunamn – ChatGPT. 

Låt säga att vi människor har en läshastighet på 300 ord per minut, då skulle det ta oss 30 000 år av oavbruten, konstant läsning att bearbeta samma mängd data som ChatGPT.

Det sägs att ChatGPT har tränats på ungefär 45 terabyte textdata. Till en början kanske detta inte verkar så imponerande, möjligtvis för att vi enkelt förlorar perspektiv och inte riktigt kan uppskatta sådana enorma skalor. Men om man skulle anta att vi människor har en läshastighet på 300 ord per minut, skulle det ta oss 30 000 år av oavbruten, konstant läsning att bearbeta samma mängd data som ChatGPT. En häpnadsväckande mängd, minst sagt.

Resultatet är en tränad autoregressor, en teknisk term för en modell som  med en kontextsats som ingång  försöker förutsäga nästa ord i meningsföljden. Ett ord i taget. Med tanke på datamängden som den tränats på borde det inte förvåna oss att modellen kan skapa fullt sammanhängande texter – även om den gör det ett ord i taget.

Troligtvis har det krävts ännu mer data för att träna uppdateringen GPT4. Men oavsett, har den nu förmågan att generera svar som är obehagligt lika människors.

Som en passionerad och engagerad expert inom AI föreställer och förutspår jag nu potentialen för en ny renässans. En stundande era av upplysning på alla tänkbara sätt. Årtionden av framsteg överlappar varandra och kan potentiellt påskynda samhällets övergång till vad vi idag bara kan uppfatta som en utopi. En framtid där våra barn och deras ättlingar ärver en transformerad värld, fri från bördorna av det förflutna och samtiden.

Men under lagret av optimism känner jag att mitt hjärta slår okaraktäristiskt. En förtryckt, skavande känsla som jag inte riktigt kan skaka av mig. Det är tydligt att jag är oerhört bekymrad. Motvilligt måste jag erkänna och konfrontera en alternativ, omvänd verklighet  som också är mycket möjlig. Och den brutala sanningen är att denna verklighet inte bara är mer sannolik, utan bör även betraktas som de facto standardscenariot.

DESINFORMATIONENS TIDSÅLDER

Vi har konstaterat att LLM:er tränas på enorma mängder data. Men vad innebär det egentligen?

Hela Wikipedia och den totala summan av alla akademiska artiklar, ungefär alla böcker i alla genrer av alla författare, alla dina favoritinternetforum och alla de hundratals miljarder interaktioner och konversationer bland miljarder människor de innehåller, alla handlingar från alla draman och alla manus från alla filmer.

”När något väl har lagts upp på internet, förblir det på internet.”

Jag tror att du förstår poängen.

Men, det finns många utmaningar med detta. Först och främst förstår inte dessa AI-modeller vad de tränas på eller har 'lärt sig'. De har faktiskt ingen förförståelse av världen alls, och har definitivt inget medvetande. I slutändan är dagens LLM:er helt enkelt stora förutsägare av ordföljd. 

Viktigt att poängtera är att de inte särskiljer på data, och att sannolikheten för vilket nästa ord som genereras i en viss kontext kan härledas tillbaka till de data som LLM:en tränats på.

Och vad finns mer bland mängder av data på internet? Hat, rasism och diskriminering för att nämna några saker. I klartext mycket falsk information, populism, vetenskapsförnekande och konspirationsteorier. Studier har gång på gång visat att LLM:er är oerhört skickliga på att inte bara absorbera värden i data, utan också förstärka dem.

Det var inte så länge sedan som du kunde be ChatGPT om tio skäl till att det är en dålig idé att ha kvinnor i ledarroller  och den levererade det. Du kan prova det än idag. Om du ber tillräckligt snällt kommer den fortfarande att vara tillmötesgående, trots OpenAI:s insatser för att stoppa det.

Bias Internet

Exempel på fördomar i data.

Poängen är att propagerandet av destruktiva värden är och förblir en enorm svaghet inom AI-utveckling. Ännu mer så nu när tekniken blivit tillgänglig för den breda massan. De uppenbara riskerna är att användarna (det vill säga vi) okritiskt förlitar oss på svaren och ovetandes sprider vidare diskriminerande åsikter och värden. 

Värt att nämna är att fördomar och stereotypa åsikter sällan är explicita. De synliggörs ofta via enskilda ordval och kontexten i vilken de presenteras. Den grundläggande orsaken är alltså datan vi tränar modellerna på. Datan är en avbild av människans historia, kultur och andra värderingar som vi vet har förändrats över tid – men som fortfarande gestaltar sig i datan. 

Case 1

I USA bötfälldes nyligen två advokater för att ha använt ChatGPT i sin research. De lämnade in ett juridiskt ärende som innehöll hänvisningar till flera påhittade fall. I dokumentet fanns därför felaktiga uppgifter om både beslut och citat.

Ett besläktat problem härstammar från kanske det tydligaste karaktärsdraget hos alla tillgängliga LLM:er, det vill säga deras tendens att låta överdrivet självsäkra även när de objektivt har fel. I folkmun kallas denna tendens att hallucinera.

På sociala medier sprider användare otaliga skärmdumpar av totalt falska påståenden som språkmodellerna gjort. Falska uppgifter som är utformade som fakta. Och exemplen ökar i antal, i en högre hastighet för varje dag som går. 

Men hittills har vi bara gett exempel på eventuellt oavsiktlig generering av polariserande innehåll och ren desinformation. Detta är givetvis en stor utmaning i sig men då har vi inte ens snuddat vid vad aktörer med avsiktligt ont uppsåt nu kan göra.

Vanligtvis kallar vi dem troll. Propagandaaktörer som då och då dyker upp, och stödjer de som finansierar dem – både statliga och icke-statliga aktörer. Deras syfte är att genomföra informationskampanjer mot specifika målgrupper och påverka opinionen, genom att manipulera människans känslor. Det är ingen hemlighet att tillvägagångssättet fungerar exceptionellt bra.

I de mest illvilliga exemplen används detta för politiska ändamål som medvetet vill skapa splittring och polarisering. Exempel sker detta under valtider, det var mycket vanligt förekommande under pandemin och intensifierades särskilt under invasionen av Ukraina.

Räckvidden och hastigheten för att nå ut kommer att öka till en aldrig tidigare skådad nivå.

Med tillgång till LLM:er och generativ AI har dessa ondsinta aktörer nu nya verktyg för att massivt skala upp sina påtryckningar. Räckvidden och hastigheten för att nå ut kommer att öka till en aldrig tidigare skådad nivå. 

En allt större procentsats av internet, grundstommen i vårt moderna samhälle och den digitala ekonomin och platsen där medborgare får information som formar deras världsbild, riskerar att bli förorenat med både oavsiktlig men också avsiktlig desinformation, vetenskapsförakt och polariserande innehåll. Detta kommer ske betydligt mer aggressivt än tidigare.

EN URSKILLNINGSLÖS VERKLIGHET

GPT-4, ChatGPT och andra textmodeller kanske är i hetluften nu, men under radarn – parallellt med dessa språkmodeller  har vi också gjort genombrott och nått framgång inom andra AI-områden.

Stable Diffusion, DALL-E 2 och Midjourney V5. Alla är de exempel på generativa AI-modeller som nu kan producera ultrarealistiska bilder  nästan omöjliga att skilja från de som till exempel tas av professionella fotografer eller målas av artister.

Påven Fake

Påve Fransciskus i en Balenciaga-jacka. Bilden är falsk och skapad av Pablo Xavier.

Till skillnad från generativa modeller som producerar text, tränas dessa visuella modeller istället på enorma mängder foton och bilder som finns tillgängliga online.

Som ett exempel såg vi nyligen påve Franciskus iklädd en fräsch och skräddarsydd Balenciaga-jacka – åtminstone är det så det ser ut. Bilden är falsk, som du ser i märkningen.

Trots detta spreds den viralt på sociala medier i flera dagar och fick stor uppmärksamhet innan nyheten bröt ut om dess ursprung, men då var skadan redan gjord. Ett tydligt exempel på att det krävs mycket mer ansträngning för att bemöta desinformation än att sprida den.

Donald Trump Fake Bild

En av de fejkade bilderna på Donald Trump i samband med hans åtal. Bild tagen från Eliot Higgins på Twitter.

Högkvalitativa och övertygande bilder som denna tar bara några få sekunder att producera. Med den nya lättillgängliga teknologin kan vem som helst göra det  och illvilliga aktörer har nu ännu ett sätt att sprida desinformation till allmänheten.

Ett annat exempel från tidigare i år inträffade i samband med åtalet av USA:s tidigare president Donald Trump. Sammanfattningsvis utspelade sig processen utan drama. Trump dök upp i domstolen, gjorde det han behövde göra och lämnade. 

Men det var inte den uppfattningen som spreds. Istället delades fejkade bilder, genererade med AI, där han jagades, misshandlades och greps av polis med hjälp av våld.

Oavsett vilken politisk sida du identifierar dig med ligger det i allas intresse att hålla sig till sanningen. Med tekniken som nu finns tillgänglig blir det mycket svårare att skilja fiktion från verklighet.

Dessa modeller fungerar som så att du endast behöver ge dem en prompt, en textbeskrivning av den önskade bilden. Du klickar därefter på generera  och bilden skapas. Du kan vara extremt specifik i vad du vill ha, och modellerna kommer att göra sitt bästa för att följa anvisningarna.

Dessutom kan du kombinera ditt önskemål med en startbild (en bild som du vill manipulera) och klicka på generera. Resultatet blir då en ny bild som är en förvanskad version av din startbild, styrd av din beskrivning.

Potentialen för missbruk av kolossal. Exempelvis inser vi lätt hur detta kan användas för att generera explicit, pornografiskt material – och tragiskt nog görs det redan. Berättelser på nätet  ofta från kvinnor  sprids i stor omfattning och beskriver hur de fallit offer för nudification. Det är när någon tar en befintlig bild av en person och helt enkelt ber en AI-modell att klä av den, och ofta gestaltar den personen i mycket diskriminerade positioner.

Hämndporr är fruktansvärt, men om möjligt är detta ännu värre. Nu behöver inte ens bilderna existera för att du ska kunna drabbas. Istället kan de genereras på bara några sekunder  utan att du någonsin samtyckt eller deltagit. Allt som krävs är vanliga, vardagliga bilder på dig.

Bilder är ett viktigt medie, men de utgör ingen garanti för äkthet och har inte gjort det på länge – den rollen kan man dock ändå säga att video haft. När du ser något på video, kanske till och med live i realtid, ifrågasätter du sällan dess äkthet. Den tas ofta för given.

Men överväg det faktum att en video helt enkelt bara är en sekvens av bilder. Och om du kan generera realistiska bilder, kan du inte då koppla ihop dem till en fullständig video? Jo, det kan vi  och det händer faktiskt redan. Även om kvaliteten ännu inte är jämförbar med andra videor, bör vi förvänta oss att den inom kort är det.

Slutligen har vi även generativ AI för ljud. Framstegen här gör det möjligt att exempelvis generera kompletta instrumentala låtar. Vi kan också med lätthet generera sångstämmor som passar till. Det intressanta är att vi kan få det att låta som om vilken person eller artist som helst sjöng dem.

Allt som krävs är att vi har tillräckligt många exempel av rösten som vi vill efterlikna, så kan en tränad modell generera kompletta låttexter med personens röst och unika stil.

För att testa kapaciteten bestämde sig Joanna Stern, krönikör på The Wall Street Journal, för att låna ut sin röst och video till en digital tjänst som skulle skapa en virtuell klon av henne.

WSJ

Joanna Stern skapade en klon av sig själv som lyckades lura hennes bank och familj.

Den goda nyheten, enligt Joanna, var att klonen aldrig tappade rösten, alltid hade enastående hållning och inte ryggade undan ens när den körde bil rakt igenom en tornado.

Den dåliga nyheten är att klonen fungerade så bra att den i tester lyckades lura inte bara hennes familjemedlemmar utan även hennes bank. Bankens säkerhetsåtgärd, ett röstbiometriskt system för identitetsverifiering, var ingen match för Joannas klon.

Ju mer ljud- och bilddata du har av en viss person, desto bättre kvalitet på ljud- och bildutdata kan genereras av AI-modellen. Även om den kreativa potentialen i tekniken är imponerande, är risken för felaktig användning också överhängande. Tänk på politiska ledare, digitala influencers, poddare, streamers  alla har stor digital närvaro och är potentiella måltavlor.

Gör inte misstaget att tro att du själv är ett undantag.

Men medan genereringsmodellerna redan har nått en avancerad nivå har metoderna för att upptäcka och avslöja dem inte det  inte ens nära. Idag har företag få ekonomiska och regulatoriska incitament för motåtgärder. Således är samhället, i skrivande stund, mycket illa rustat för att stå emot den kommande tillströmningen av genererat innehåll.

DEMOKRATINS FÖRFALL

Jag anser att det är rimligt att jämföra lanseringen av GPT-4 och andra generativa teknologier, med en annan omskakande händelse som präglat världens utveckling – nämligen kulmineringen av Project Manhattan och den första detoneringen av en mänskligt tillverkad atombomb.

I denna analogi har vi dock förflyttat oss från den fysiska verkligheten till det digitala rummet. Utan vidare förberedelser eller kalkyler beslutade vi att internet var den bästa platsen att släppa okontrollerbar och kraftfull generativ AI på. Internet, denna banbrytande plattform och samarbetsplats som vi människor använder för att interagera med varandra över hela världen. Som vi nyttjar för att demokratisera och dela kunskap, som vi är alltmer beroende av för vår ekonomi och för att hålla oss informerade om världshändelser, och som vi rentav har satsat hela vår framtid på.

Det är viktigt att förstå att mänskligheten ännu inte har sett alla konsekvenser av detta. Många är inte ens medvetna om svampmolnet som uppenbarat sig.

Jag hoppas innerligt att jag har fel i detta, men jag förutspår att chockvågorna kommer att föra med sig en överväldigande, konstant och aldrig sinande mängd

Desinformation, lögner och halvsanningar kan gradvis ta över en större och större del av internet – till den punkt där nätet blir fullständigt obrukbart och meningslöst för allt utom illvilliga syften.

Vad gör vi när vi inte längre kan lita på det vi ser och hör? Att se och höra med våra egna ögon och öron har alltid varit något vi kunnat falla tillbaka på, en metod för att skilja sant från falskt. Detta är inte längre gångbart i den digitala världen. Det är tydligt att du inte längre kan lita på att personen du pratar i telefon med är den de utger sig för att vara – inte ens i ett videomöte.

Föreställ dig en framtid där AI-genererat innehåll dominerar internet. Likaså alla applikationer som försöker konkurrera om vår alltmer begränsade uppmärksamhet och hålla oss fast genom att ständigt servera det som genererar mest engagemang – vilket i sin tur kommer att vara mer AI-genererat innehåll. Föreställ dig sedan effekterna av denna våg, med många gånger falsk information, och den potentiella polariseringen av miljarder människor världen över  både inom nationer och mellan länder.

Samarbete, sammanhållning och samhällsutveckling har alla en viktig delad grundpelare – en gemensam, objektiv uppfattning om världens tillstånd byggd på fakta. Men om objektivitet, expertis och fakta i stället ersätts av subjektiva halvsanningar och rena lögner, beroende på vilka algoritmer som väljer att rikta sig till dig, riskerar vi en allvarlig degradering av både samhällets förmåga att fungera, samt våra relationer till varandra.

INSTITUTIONERNAS DECIMERING

”Om jag har sett längre än någon annan så är det för att jag stått på jättarnas axlar” som Isaac Newton en gång ska ha sagt, är ett citat som representerar mänsklighetens samlade ansträngning för att tillfredsställa sin nyfikenhet. En symbol för vår gemensamma kamp att ständigt utforska och utvidga gränserna för vetenskapligt kunnande om den fysiska världen  och bevara det för kommande generationer.

Kopplat till det kommer vår nästa paradox. En efter en höjs röster från våra akademiska institutioner. Bara i Sverige hörs anklagelser om att studenter fuskar på sina hemuppgifter med hjälp av LLM:er. Universiteten i Göteborg, Linköping, Karlstad, Uppsala och Kungliga Tekniska högskolan är några av de som har identifierat oegentligheter.

För att förstå vad som händer så tänk tillbaka på att LLM:er, såsom ChatGPT, tränas på enorma textmassor för att lära sig att koppla samman lingvistiska och grammatiska regler. Som en biprodukt av denna process kodas även in en stor del av de fakta de stöter på i dessa textmängder – givetvis tillsammans med allt bias, desinformation och halvsanningar som också finns där.

Den opportunistiska studenten ser nu en genväg: Fråga bara din valda LLM om svar på uppgiften. En gammal hederlig Ctrl+C, Ctrl+V räcker. I gensvar får du, för de flesta enkla uppgifter, något som är slående likt ett tillfredsställande svar.

Även om uppgiften då tekniskt sett har blivit genomförd, har utföraren kringgått och utmanövrerat hela syftet med den.

Lärande sker genom att man exponeras för och spenderar tid på att analysera. Genom att vrida ut och in på ett givet material. Ännu bättre, följt av diskussion och debatt med andra – för att dra nytta och lära av varandras perspektiv.

Att helt enkelt läsa ett svar från en LLM, exempelvis en sammanfattning av en bok, är inte samma sak som att läsa hela verket. Alla karaktärer och deras unika historier drömmar, förhoppningar, konflikter och nyanser  försvinner. Kontexten i dess helhet går förlorad.

Det blir tydligt att vi har släppt lös ett verktyg som fullständigt kringgår uppbyggnaden av vårt utbildningssystem. Akademins anpassning till denna verklighet är en omfattande utmaning.

Eftersmaken är ännu mer bitter för samhället i stort. Det är tydligt att vi inte är redo för den oundvikliga ström av självutnämnda experter som är på väg. Denna gång vilseledda med svar utan kontext, som löpande kommer försöka användas för att ge triviala lösningar på komplexa och nyanserade frågor.

Observera att dessa ”experter” var utbredda redan innan LLM:er, och aktivt förespråkat misstro mot våra institutioner. Att jorden är platt är tydligen ett hett ämne igen, och en sjukdom som mässling, som tidigare utrotats i delar av världen, gör nu en återkomst. Orsaken är aggressiv desinformation, kombinerat med det faktum att det krävs tio gånger fler insatser att bekämpa det än att sprida det.

Dessa odds är uppenbarligen inte till den vetenskapliga disciplinens fördel, och vi har bara sett början.

Hur kan vi lära oss av historien – ett kritiskt fundament för mänskligheten – om ingen längre är villig att reservera eller spendera nödvändig tid på det?

Hur kan vi lära oss av historien  ett kritiskt fundament för mänskligheten  om ingen längre är villig att reservera eller spendera nödvändig tid på det? Eller ännu värre, inte ser någon mening med det.

Vad är poängen med att lära sig om andra världskriget och dess orsaker? Varför behöver vi läsa litteratur som täcker den perioden, titta på dokumentärer, betrakta bevarade bilder, eller lyssna till överlevandes vittnesmål? Varför behöver vi sätta oss in i hur världen såg ut då?

Varför behöver vi överhuvudtaget förstå sammanhanget av ett givet ämne, när en enkel fråga till en LLM kan producera en halvdan sammanfattning på en sida som täcker allt detta – och sparar oss tid genom att göra så?

Allvarligt talat. Om vi inte anpassar oss till detta, snabbt och med medvenhet, riskerar vi en intellektuell degradering på en aldrig tidigare skådad nivå. En nivå som kan orsaka oåterkallelig skada på vårt kulturella arv och leda oss rakt in i en idiokrati.

Och jättarnas axlar, de vi brukade stå på för att se längre  kan istället bli skrämmande bergstoppar, sedda på långt avstånd. Hotfulla, och framöver bestigna av endast några få.

UTOPI, FRAMTIDSTRO OCH HANDLINGSKRAFT

Nu vill jag ändå tydliggöra min synpunkt  jag ser faktiskt en enorm positiv potential med framstegen inom AI!

Jag nämnde potentialen för en ny renässans  och menar det uppriktigt. Om vi är redo att tackla uppgiften framför oss och integrera AI på ett omsorgsfullt sätt i våra liv, kan vi verkligen ta stora kliv och träda in i en ny upplysningsera.

Föreställ dig framtidens skolor där varje elev numera har sin egen AI-assistent. En kompanjon som stärker elevens tilltro till sig själv, ger individanpassat stöd utefter elevens behov och förmågor, agerar som en motiverad motpart som uppmanar till vidare utforskning och motiverar eleven att utforska sin nyfikenhet till det yttersta.

På en global nivå  i kontrast till det dystopiska scenario jag tidigare lyft fram  skulle vi istället kunna demokratisera kunskap och objektiva fakta i en fram tills nyligen ofattbar skala. Det skulle inte längre finnas några kunskapshinder, och inte heller spela någon roll vem du eller dina föräldrar är, eller var du föds. Alla kan ha tillgång till mänsklighetens ackumulerade och kollektiva kunskapsbas. Internet, som vi känner det idag, var den första ansatsen för att nå detta mål. Med välriktad AI kan vi slutföra arbetet.

På samma sätt kan vi föreställa oss en ljus framtid inom medicin, politik, jordbruk, juridik och vetenskap i stort.

Men för att komma dit väntar ett gediget arbete. Jag sitter såklart inte på alla svar, men här är fem inspel för att komma igång:

  1. En allmän satsning på att ge medborgare och politiker en grundläggande förståelse för AI och dess möjligheter. Delvis för att kunna skydda sig mot AI-manipulering, men också för att aktivt kunna delta och nå framgång i den stundande revolutionen. AI-analfabetism får inte bli ett fenomen. Om du som läsare känner dig träffad, bli inte nedslagen  utbilda dig istället. Börja nu.
  2. Ett robust regelverk för allt som rör AI, framför allt får AI-genererat innehåll aldrig ges möjligheten att vilseleda. Närhelst det uppstår måste innehållet tydligt märkas som AI-genererat. Det är av största vikt för att hålla vår uppfattning av verkligheten intakt.

    Här måste politiker ta ansvar, och vi specialister måste driva på utvecklingen. I enlighet med det vill jag lägga fram ett hårt krav:

    Sverige måste bli en ledare inom ansvarsfull användning av AI.

    Det finns inga ursäkter för självbelåtenhet.

  3. Hårda och noggranna regler för AI-utvecklare. Tydliga krav på att produkter måste upprätthålla en hög etisk standard och identifiera fördomar, förutfattade meningar och tendenser till osanningar. Tyngdpunkt på transparens och tolkningsbarhet krävs också. Datamängder måste granskas innan de används. Välfungerande och välriktad AI är helt beroende av detta.
  4. Skapande av en internationell organisation liknande Internationella atomenergiorganet (IAEA), men som har i uppgift att hålla sig ajour med AI-framsteg och rekommendera nya regler och/eller lösningar för uppkomna problem.
  5. Slutligen: Håll AI demokratiserad. Vi får inte överlåta kontrollen över AI till några få maktspelare så att de innehar nycklarna till vår framtid och potential. Öppen källkod och transparens är vägen framåt.

Den 14 mars 2023 var inte bara startskottet på en ny AI-era. För mig var det också en stor dag av personlig lycka. Min son, Amir, föddes den dagen. När jag nu ser på honom, där han ligger bredvid mig i sin vagga, känner jag mig mer beslutsam än någonsin  som varje förälder gör  att kämpa för mitt barns möjligheter att uppnå sina drömmar och växa upp till en bättre morgondag.

AI är en utmaning vi måste härda igenom och överkomma. Det är vi skyldiga efterföljande generationer. Det vi gör idag spelar roll.

Ali Leylani, Chief AI Scientist på Granditude och Vice Chairman på ideella organisationen Stockholm AI

28 juni 2023Uppdaterad 2 oktober 2023Fördjupning

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

Rekommenderad läsning

Stäng