NYHET
Med hänsyn till användarnas integritet kan beslutsfattare införa lämpliga sekretesspolicyer för att öka användarupplevelsen och för att följa sekretessrelaterade lagar, till exempel GDPR. Xuan-Son Vu har utvecklat ramverk och algoritmer för att stödja dessa två vitala krav. Han försvarar sin avhandling tisdag 20 oktober vid Umeå universitet.
Text: Ingrid Söderbergh
Xuan-Son Vu, doktorand på Institutionen för datavetenskap vid Umeå universitet.
BildVictoria Skeidsvoll
Integritet är ett viktigt begrepp i vår tid med tanke på de digitala fotspåren som omger oss. Även om människor väljer att inte använda sociala medier, som är källan till aktiva digitala fotspår, "spåras" de fortfarande av passiva digitala fotavtryck (till exempel via data från sina vänner, släktingar eller via data från Internet of Things-enheter). Det krävs därför att vi lär oss och förstår mer om integritet eftersom det handlar om kontroll. Utan integritet kan vi inte välja hur vi ska leva våra liv. Integritet handlar dock inte bara om integritetsgaranti.
I sin avhandling ger Xuan-Son Vu ett bidrag till kunskap om integritet för att förstå behovet av inte bara integritetsgaranti utan också integritetsanalys i maskininlärning med stora datamängder. Det handlar om att skydda användarnas integritet mot sekretessläckage, och integritetsanalys hjälper till att förstå användarnas oro över integritet.
– När jag började min doktorandstudie kämpade jag med två huvudfrågor angående forskning om personuppgifter: för det första, om jag har tillgång till tidigare insamlad information, hur kan jag skydda de registrerades integritet utan användarvillkor? Och för det andra, hur kan jag bättre skydda användarnas integritet utan att förlora nyttan av datat?, säger Xuan-Son Vu.
För forskningsstudier inom datavetenskap, särskilt i maskininlärning, naturlig språkbehandling eller computer vision (datorseende), är det mycket viktigt att ha användargenererad data via sociala medier, till exempel delade texter och bilder på Twitter, för att experimentera med nya metoder på verklig data i stor skala.
Forskare genomsöker ofta data själva inom sina forskningsämnen. När informationen har samlats in kan den delas mellan forskare för att underlätta relaterad forskning. Dataintegritet utgår dock från registrerades perspektiv. När en stor mängd data delas och distribueras i stor omfattning, finns det stor risk att de kan användas av obehöriga för att identifiera den registrerades verkliga identitet vad gäller känsliga uppgifter, såsom medicinska data.
Trots omfattande forskning inom sekretessmetoder saknas effektiva algoritmer och ramverk för att möjliggöra forskning på känsliga data. Till exempel, utan användarens samtycke, måste det finnas en lämplig metod för att upptäcka integritetshänsyn på ett naturligt sätt, som om användarna lämnat sina samtycken. På samma sätt har det introducerats en mängd integritetsgaranterade algoritmer som dock är för komplicerade för att användas utan att kräva alltför lång inlärningstid.
– Jag fokuserade främst på att utveckla metoder som gör det möjligt för forskare och utövare av maskininlärning att arbeta med känsliga data utan att oroa sig för att veta detaljer om integritetsgaranterade algoritmer. Olika tekniker för integritetsanalys har införts för att förstå användarnas behov av integritetsgaranti, för att bättre stödja användare och skydda deras data, säger Xuan-Son Vu.
Xuan-Son Vu kommer från Vietnam och har en masterexamen i datavetenskap med inriktning mot naturlig språkbehandling och maskininlärning från Kyungpook National University, Korea. Hans doktorsavhandling har utförts vid Institutionen för datavetenskap inom forskargruppen Deep Data Mining. Hans handledare är universitetslektor Lili Jiang och professor Erik Elmroth.
Tisdag 20 oktober försvarar Xuan-Son Vu, Institutionen för datavetenskap vid Umeå universitet, sin avhandling med titeln: Privacy-Guardian: The Vital Need in Machine Learning with Big Data.
Disputationen äger rum kl 14:00 i rum N460, Naturvetarhuset. Opponent är professor Stan Matwin, chef för Institute for Big Data Analytics, Dalhousie University, Kanada.