"False"
Hoppa direkt till innehållet
printicon
Huvudmenyn dold.
Forskargruppens medlemmar står på utsidan av MIT-huset i solen.

Bild: Victoria Skeidsvoll

NAUSICA: PrivAcy-AWare traNSparent deCIsions group

Forskargrupp Vi är intresserade av transparenta AI-system som är integritetsmedvetna. Vi fokuserar på dataintegritet för databehandling, integritetsmedveten maskininlärning för att bygga modeller och dataanalys samt beslutsmodeller för att fatta beslut.

AI-system används allt oftare för att förbättra beslutsfattandet. En av de viktigaste byggstenarna i AI är data. Metoder för maskininlärning och statistisk inlärning används för att utvinna kunskap från underliggande data i form av modeller och slutsatser. Det typiska arbetsflödet består av att förbehandlad data matas in i algoritmer för maskininlärning, följt av algoritmer som omvandlar data till modeller, och slutligen bäddas modellerna in i AI-system för beslutsfattande.

Integritet säkrar informationen

Maskininlärning och AI har spridit sig till många områden där känsliga personuppgifter samlas in från användarna. Några av dessa områden är hälso- och sjukvård, personliga finansiella tjänster, sociala nätverk, e-handel, platstjänster och rekommendationssystem. Data från dessa domäner samlas in och analyseras kontinuerligt för att man ska kunna fatta användbara beslut och dra slutsatser. Dessa datas känsliga natur ger dock upphov till integritetsfrågor som inte kan hanteras framgångsrikt enbart genom naiv anonymisering.

Inte bara data i sig, utan även modeller och sammanställningar kan leda till avslöjanden eftersom de kan innehålla spår av de data som använts i beräkningarna. Angrepp på data – exempelvis återidentifiering och transparensangrepp, och på modeller – t.ex. medlemsangrepp och modellinversion, har visat att det finns ett behov av lämpliga skyddsmekanismer.

Med starkt stöd

Vår forskning stöds huvudsakligen av Wallenberg AI, Autonomous Systems and Software Program (WASP) som finansieras av Knut och Alice Wallenbergs Stiftelse. Ytterligare stöd ges av Kempestiftelserna, Vetenskapsrådet och Forte, Forskningsrådet för hälsa, arbetsliv och välfärd.

Vi utvecklar tekniker så att data, modeller och beslut kan fattas med lämpliga integritetsgarantier. AI-system måste t ex kunna hantera osäkerhet för att kunna användas i den verkliga världen, där otydlighet, vaghet och slumpmässighet sällan är frånvarande. Approximativa resonemang studerar modeller för resonemang för att hantera osäkerhet, t.ex. sannolikhetsbaserade, bevisteoribaserade och fuzzy set-baserade modeller.

AI-system, i linje med riktlinjerna för tillförlitlig AI, har som grundläggande krav rättvisa, ansvarighet, förklarbarhet och transparens. Kraven påverkar hela design- och uppbyggnadsprocessen för AI-system, från data till beslut. Datasekretess, maskininlärning och statistisk inlärning samt approximativa resonemangsmodeller är grundläggande komponenter i denna process, men de måste kombineras för att ge en helhetslösning.

Transparenta AI-system

Vår forskargrupp är intresserad av integritetsmedvetna, transparenta AI-system. Vi vill förstå de grundläggande principerna som gör det möjligt för oss att bygga sådana system och utveckla algoritmer för detta ändamål. Vi fokuserar på dataintegritet för databehandling, integritetsmedveten maskininlärning för att bygga modeller och dataanalys samt beslutsmodeller för att fatta beslut.

Internationellt samarbete

Gruppen samarbetar med flera nationella och internationella forskargrupper, t.ex. Tamagawa University, Osaka University och Tsukuba University i Japan, Maynooth University i Irland och Autonomous University of Barcelona. Forskargruppen har även goda kontakter med industrin och statliga organisationer.

Några nyckelord för vår forskning

Datasekretess och maskininlärning

  • Sekretessmedvetna maskininlärningsmetoder och statistiska inlärningsmetoder
  • Sekretessmedveten federerad inlärning
  • Riskbedömning av avslöjande transparensattacker
  • Sekretessmodeller (sekretess för återidentifiering, k-anonymitet, differentiell och integrerad sekretess)
  • Maskeringsmetoder
  • Statistisk kontroll av avslöjande
  • Approximativa resonemang

Fuzzy-uppsättningar och system

  • Icke-additiva mått och integraler
  • Aggregeringsfunktioner
  • Beslutsfattande
 

Aktuella projekt

  • "Datasekretess för komplexa data," finansierat av Vetenskapsrådet, (2023-2027)
  • "Sekretessmedvetna, säkra samt förklarbara datadrivna modeller i federerat lärande", finansierat av Vetenskapsrådet, (2024-2028)
  • "Identifiering och analys av icke-additiva mått", finansierat av Kempestiftelserna, (2023-2025)
  • "Förståelse och design av blockkopolymerer med hjälp av AI," finansierat av Kempestiftelserna, (2024-2027)
  • "Andvändbar automatisering: mot en förståelse av robotar och AI inom socialtjänsten ur ett organisations- och användarperspektiv," finansierat av Forte, (2021-2027)
  • "CyberSecIT: Automated and Autonomous Cybersecurity for IoT," finansierat av WASP, (2022-2027)

Forskningsledare

Vicenç Torra
Professor
E-post
E-post
Telefon
090-786 59 48

Översikt

Medverkande institutioner och enheter vid Umeå universitet

Institutionen för datavetenskap

Forskningsområde

Datavetenskap

Externa finansiärer

WASP Wallenberg AI, Autonomous Systems and Software Program, Kempestiftelserna, Vetenskapsrådet, Forte

Externa finansiärer

Unga Umeåforskare utvalda att delta under Nobelveckan

25 unga forskare är utvalda att mötas för att inspireras och inspirera andra.

Vicenç Torra ny professor i AI

Vicenç Torra är ny professor vid Institutionen för datavetenskap.

Senast uppdaterad: 2024-05-28