Vår grupp undersöker de matematiska grunderna för artificiell intelligens, och strävar efter att förstå framgångar och misslyckanden för komplexa maskininlärningsmodeller samt utveckla teori, metoder och mjukvara i fronten av AI-forskningen.
Vi är särskilt fokuserade på två sammankopplade forskningsämnen inom denna breda palett. Det första undersöker hur symmetrier kan inkorporeras i maskininlärningsmodeller. Den andra koncentrerar sig på högdimensionella och storskaliga optimeringsproblem och användningen av algoritmer på moderna datorer. Våra forskningsområden innefattar:
Ekvivarians av neurala nätverk
Neurala differentialekvationer
Compressive sensing
Implicit regularisering och teori för djupinlärning
Distribuerad och federerad optimiering
Icke-konvex och icke-glatt optimering
Operatoruppdelningsmetoder och variationell inferens