NAUSICA: PrivAcy-AWare traNSparent deCIsions group
Forskargrupp
Vi är intresserade av transparenta AI-system som är integritetsmedvetna. Vi fokuserar på dataintegritet för databehandling, integritetsmedveten maskininlärning för att bygga modeller och dataanalys samt beslutsmodeller för att fatta beslut.
AI-system används allt oftare för att förbättra beslutsfattandet. En av de viktigaste byggstenarna i AI är data. Metoder för maskininlärning och statistisk inlärning används för att utvinna kunskap från underliggande data i form av modeller och slutsatser. Det typiska arbetsflödet består av att förbehandlad data matas in i algoritmer för maskininlärning, följt av algoritmer som omvandlar data till modeller, och slutligen bäddas modellerna in i AI-system för beslutsfattande.
Integritet säkrar informationen
Maskininlärning och AI har spridit sig till många områden där känsliga personuppgifter samlas in från användarna. Några av dessa områden är hälso- och sjukvård, personliga finansiella tjänster, sociala nätverk, e-handel, platstjänster och rekommendationssystem. Data från dessa domäner samlas in och analyseras kontinuerligt för att man ska kunna fatta användbara beslut och dra slutsatser. Dessa datas känsliga natur ger dock upphov till integritetsfrågor som inte kan hanteras framgångsrikt enbart genom naiv anonymisering.
Inte bara data i sig, utan även modeller och sammanställningar kan leda till avslöjanden eftersom de kan innehålla spår av de data som använts i beräkningarna. Angrepp på data – exempelvis återidentifiering och transparensangrepp, och på modeller – t.ex. medlemsangrepp och modellinversion, har visat att det finns ett behov av lämpliga skyddsmekanismer.
Vi utvecklar tekniker så att data, modeller och beslut kan fattas med lämpliga integritetsgarantier. AI-system måste t ex kunna hantera osäkerhet för att kunna användas i den verkliga världen, där otydlighet, vaghet och slumpmässighet sällan är frånvarande. Approximativa resonemang studerar modeller för resonemang för att hantera osäkerhet, t.ex. sannolikhetsbaserade, bevisteoribaserade och fuzzy set-baserade modeller.
AI-system, i linje med riktlinjerna för tillförlitlig AI, har som grundläggande krav rättvisa, ansvarighet, förklarbarhet och transparens. Kraven påverkar hela design- och uppbyggnadsprocessen för AI-system, från data till beslut. Datasekretess, maskininlärning och statistisk inlärning samt approximativa resonemangsmodeller är grundläggande komponenter i denna process, men de måste kombineras för att ge en helhetslösning.
Transparenta AI-system
Vår forskargrupp är intresserad av integritetsmedvetna, transparenta AI-system. Vi vill förstå de grundläggande principerna som gör det möjligt för oss att bygga sådana system och utveckla algoritmer för detta ändamål. Vi fokuserar på dataintegritet för databehandling, integritetsmedveten maskininlärning för att bygga modeller och dataanalys samt beslutsmodeller för att fatta beslut.
Internationellt samarbete
Gruppen samarbetar med flera nationella och internationella forskargrupper, t.ex. Tamagawa University, Osaka University och Tsukuba University i Japan, Maynooth University i Irland och Autonomous University of Barcelona. Forskargruppen har även goda kontakter med industrin och statliga organisationer.
Några nyckelord för vår forskning
Datasekretess och maskininlärning
Sekretessmedvetna maskininlärningsmetoder och statistiska inlärningsmetoder
Sekretessmedveten federerad inlärning
Riskbedömning av avslöjande transparensattacker
Sekretessmodeller (sekretess för återidentifiering, k-anonymitet, differentiell och integrerad sekretess)
"Förståelse och design av blockkopolymerer med hjälp av AI," finansierat av Kempestiftelserna, (2024-2027)
"Andvändbar automatisering: mot en förståelse av robotar och AI inom socialtjänsten ur ett organisations- och användarperspektiv," finansierat av Forte, (2021-2027)
"CyberSecIT: Automated and Autonomous Cybersecurity for IoT," finansierat av WASP, (2022-2027)