Framsteg inom maskininlärning har lett till en ökad popularitet att använda AI -beslutsalgoritmer för att effektivisera förfaranden som borgenförhör (Feller et al., 2016), medicinska diagnoser (Rajkomar et al., 2018; Esteva et al., 2019) och rekrytering (Heilweil, 2019; Van Esch et al., 2019). Akademiska artiklar (Floridi et al., 2018), policytexter (HLEG, 2019) och populärböcker (O'Neill, 2016) varnar för att sådana algoritmer tenderar att vara ogenomskinliga: de ger inte förklaringar till deras resultat. Föreläsningen bygger på en kausal redogörelse för öppenhet och opacitet samt senaste arbete med kausalt förklaringsvärde (Lombrozo, 2011; Hitchcock, 2012) så väcker jag en moralisk oro för ogenomskinliga algoritmer som ofta går obemärkt förbi: ogenomskinliga algoritmer kan undergräva användarnas autonomi genom att dölja framträdande vägar för att påverka deras resultat. Jag hävdar att denna oro skiljer sig från det som normalt diskuteras i litteraturen och att den förtjänar ytterligare uppmärksamhet. Jag hävdar också att det kan vägleda oss i beslutet om vilken grad av transparens som borde krävas. Sannolikt kan den nödvändiga graden av transparens uppnås utan att ”öppna den svarta lådan” för maskininlärningsalgoritmer.
Denna webbplats använder kakor (cookies) som lagras i din webbläsare. Vissa kakor är nödvändiga för att sidan ska fungera korrekt och andra är valbara. Du väljer vilka du vill tillåta.