"False"
Hoppa direkt till innehållet
printicon
Huvudmenyn dold.
Publicerad: 2024-05-20 Uppdaterad: 2024-05-27, 17:34

Nya och avancerade AI-lösningar ska hindra angripare att komma åt och läcka dina data

NYHET Privat och offentlig sektor använder och delar data. Men vad händer om systemen hackas och personliga uppgifter eller känslig information läcker ut? Vid Umeå universitet utvecklas nu ett helt nytt säkerhetstänk inom datadrivet beslutsfattande. – Vi kommer att göra det riktigt svårt för angripare att identifiera personer, byggnader eller områden för ytterligare spridning, säger professor Vicenç Torra, vid institutionen för datavetenskap, Umeå universitet.

Offentlig sektor samlar in stora mängder av information. Det kan handla om alltifrån var vattenledningar finns till barnomsorgsbehov, inkomstskillnader, kriminalitet, klimatförändringar eller bidrag – viktig information, för samhället. EU beräknar att värdet på öppna data ligger mellan 194-334 miljarder euro, 2025. 

Inom den privata sektorn används data och AI för att analysera köpbeteenden, eller ta informerade beslut och erbjuda personanpassade lösningar. Inom offentlig verksamhet är öppna data en förutsättning för att kunna ta fram lösningar som kan underlätta i vården, eller hjälpa dig med information om vattenkvaliteten i din kommuns badsjöar. Den offentliga sektorn ska också dela och nyttja varandras data för att skapa nya värden, kunskap och innovation. 
– Men vi kan se att det fortfarande inte finns tillräckliga säkerhetsskydd och därmed en stor risk för att känslig eller personlig information kan röjas, säger Vicenc Torra, professor i datasekretess vid Umeå universitet. 

Nya säkerhetsmöjligheter

Han är världsledande forskare inom området och verksam som WASP-professor i AI-säkerhet vid institutionen för datavetenskap, Umeå universitet. WASP, Wallenberg AI, Autonomous Distributed and Software Program, är Sveriges största forskningsprogram inom området, där Umeå är en av fem partneruniversitet. Med generös finansiering även från Vetenskapsrådet, Sveriges största statliga forskningsfinansiär, håller han nu på att utveckla AI-lösningar som ger helt nya säkerhetsmöjligheter.
– Istället för att åtgärda och stoppa potentiellt mycket stora läckor utvecklar vi nu avancerade skyddsmekanismer som integreras i de datadrivna modellerna redan på prototypstadiet. Det gör det möjligt att träna direkt på enskilda modeller, vilket i slutändan försvårar attacker", säger professor Vicenç Torra.

Inte tillräckliga lösningar 

Att uppgifter läcks kan ställa till med enorm skada och ofta innebära stora kostnader. Detta har vi inte minst sett, under de senaste åren. Och trots att många myndigheter och företag arbetar hårt för hög säkerhet menar Torra att de lösningar som finns idag, inte är tillräckliga. Konkret handlar det om problem med att skydda data som har komplicerade eller otydliga samband mellan olika objekt och information som är temporär, samt dynamiska grafer och mätdata, som helt saknar skyddsmekanismer idag.
– Det är t ex svårare att skydda integriteten när det finns data som berör flera personer på samma adress eller data om behandlingar och hur de har påverkat en patientens hälsa över tid, t ex om en patient har journaler från flera sjukhus. Det kan också handla om mätdata från ett kraftnät, där det går att identifiera vilka som använder sig av det, Vicenç Torra.

Direkt skadligt

Att uppgifter sprids, kan leda till omfattande problem. En inkräktare kan använda informationen för att dra slutsatser om dig som individ, och sedan sprida, förvanska eller sälja den informationen. 
– Det skadar inte bara kundernas förtroende och forskares trovärdighet, det kan också bli direkt skadligt för enskilda personer eller grupp. Till exempel genom att avslöja vilka personer som lider av en sjukdom i ett område, utpressning liksom hot och fara, säger professor Vicenç Torra. 

Världsledande forskning

Detta är inte det enda projektet inom datasekretess som Vicenç Torra arbetar med. Han leder också forskargruppen Nausica, där doktorander och post-doktorer arbetar för att bygga transparenta och integritetsmedvetna AI-system, med fokus på dataintegritet för databehandling och integritetsmedveten maskininlärning, i syfte att bygga modeller och dataanalys samt beslutsmodeller för att fatta beslut.
– De nya och innovativa lösningarna kommer förhoppningsvis att minimera skador, inte minst när det gäller den ökade risken för hackerattacker.
Vi kommer att göra det riktigt svårt att spåra och identifiera användare när en sådan attack inträffar, säger Vicenç Torra.

Läs mer om Nausica här.

Kontakta professorn

Kontaktinformation

Vicenç Torra
Professor
E-post
E-post
Telefon
090-786 59 48

Fakta om projektet

Professor Vicenç Torra är världsledande forskare inom AI, datasekretess, Approximate Reasoning och beslutsfattande. Han leder forskargruppen Nausica: Privacy-Aware Transparent Decisions Group vid institutionen för datavetenskap, Umeå universitet. Forskningsprojektet "Datasekretess för komplexa data" pågår fram till och med sommaren 2025 och finansieras av Vetenskapsrådet.