Forskargrupp
När AI-systemen blir mer autonoma och kan fatta allt viktigare beslut på egen hand blir det också allt mer viktigt att förstå de sociala sammanhang där AI-systemen ska fungera.
Vi undersöker beräkningsmodeller för sociala begrepp som normer, praxis, organisationer etc. för att förbättra AI -system på ett sätt som de kan vara medvetna om sitt sociala sammanhang och kan bete sig som människor förväntar sig att de ska göra. T.ex. Vi förväntar oss att en vårdrobot insisterar på att en patient ska ta sin medicin, men inte när han bara är i telefon med sin partner. Och när vi interagerar med en chatbot för att ansöka om licens för att jaga älg borde den kunna förklara varför en licens inte ges.
Vi tillämpar den utvecklade teorin i många applikationer, allt från chatbots och social robotik (som i exemplen ovan) till sociala simuleringar för beslutsfattare och strategiska organisatoriska beslut.
HHAI 2024: hybrid human AI systems for the social good: proceedings of the third international conference on hybrid human-artificial intelligence, Amsterdam: IOS Press 2024 : 114-123
Advances in social simulation: proceedings of the 18th social simulation conference, Glasgow, UK, 4–8 september 2023, Cham: Springer Nature 2024 : 163-176
Advances in social simulation: proceedings of the 18th Social simulation conference, Glasgow, UK, 4–8 september2023, Cham: Springer Nature 2024 : 533-545
Advances in social simulation: proceedings of the 18th Social simulation conference, Glasgow, UK, 4–8 september 2023, Cham: Springer Nature 2024 : 235-248