Forskningsprojekt
AI-system förväntas i allt högre grad agera autonomt. Att använda nuvarande maskininlärningsmetoder som fokuserar på mönstermatchning och förlitar sig starkt på korrelationsmetoder leder till ogenomträngliga system som är notoriskt svåra att övervaka – de så kallade black box-algoritmerna.
Projektet fokuserar på utveckling av metoder för att verifiera och övervaka det etiska beteendet hos AI-system baserat på observation av input och output beteende enligt ett kontinuerligt utvecklande av en optimal samhällsnivå.