Genom att surfa vidare godkänner du att vi använder cookies. Jag förstår

GDPR-vänlig maskininlärning från Skövde

Gdpr, Informationssäkerhet, Maskininlärning; Färggrant Uppfällt Paraply

En ny metod utvecklad av doktorand Navoda Senavirathne vid Högskolan i Skövde kan hjälpa dem som utvecklar maskininlärningsmodeller att bättre skydda de personuppgiftsdata som används i inlärningsfasen.

Maskininlärning, också förkortat ML, är en dataanalysmodell som innebär att datorer tränas på att känna igen och lära sig mönster från ofta stora pooler av data, med syfte att sedan kunna lösa komplexa uppgifter eller förutsäga utfall och föreslå åtgärder. Inte sällan är det maskininlärningsalgoritmer som ligger till grund i det lite mer omfångsrika begreppet artificiell intelligens, AI.

Känsliga uppgifter läcker

Navoda Senavirathne, doktorand vid Högskolan i Skövde, föreslår i sin avhandling Towards Privacy Preserving Micro-Data Analysis: A Machine Learning Based Perspective under Prevailing Privacy Regulations åtgärder för att begränsa de integritetssårbarheter som finns i maskininlärning.

Bakgrunden är att idag när modeller tränas på data som handlar om och kommer från personuppgifter och som därför kräver dataskyddsanonymisering, visar ny forskning att dessa ursprungsdata kan läcka när maskininlärningsmodellen presenterar sin så kallade utdata.

Det innebär i sin tur att den som vill skulle kunna utnyttja dessa sårbarheter genom så kallade integritetsattackmodeller och ta fram känslig information från persondatan, vilket strider mot dataskyddsförordningen GDPR.  

Navoda Senavirathne Vid Högskolan I Skövde

Navoda Senavirathne, doktorand vid Högskolan i Skövde.

– Jag har studerat dataanonymisering som en potentiell begränsningsstrategi för befintliga integritetsattackmodeller samtidigt som jag betonar fördelarna med dataanonymisering för både organisationer och individer. Dessutom uppmärksammar jag vissa områden av GDPR som är vaga och i konflikt med användbarhets- och integritetsaspekten i maskininlärning. Därför måste lagstiftarna ompröva dem, säger Navoda Senavirathne.

Vill underlätta för framtidens ML-utvecklare

Navoda Senavirathne har föreslagit förfinade dataanonymiseringar efter att hennes upprepande experiment visat att de modeller som finns idag enbart minskar integritetsriskerna för ML-modeller under vissa förutsättningar.

– Dessa fynd inspirerade mig att ta fram ett tillvägagångssätt för sekretessbevarande ML-modellval. Jag tror att min forskning kommer underlätta för de som arbetar med personuppgifter att träna användbara ML-modeller för kunskapsutvinning, samtidigt som de säkerställer individernas integritet, avslutar Navoda Senavirathne.

Källa: Högskolan i Skövde

7 december 2021 Uppdaterad 8 december 2021 Reporter Tim Leffler säkerhet Foto Adobestock, Högskolan i Skövde

Senaste nytt