Hur textbaserade förklaringar bör designas för förbättrad förståelse av AI-baserade finanssystem

Detta är en Kandidat-uppsats från Högskolan i Skövde/Institutionen för informationsteknologi

Sammanfattning: Den finansiella sektorn har kunnat ta del av stora fördelar med avancerade AI system som kan förutspå trender och ta egna beslut baserat på tidigare processer. Detta betyder att system som använder AI med 100-tals parametrar kan utföra mer arbete med mindre arbetstimmar än en människa. För att människan ska kunna lita på sådana tänkande maskiner måste människan ha möjligheten att förstå programmen så att hen kan kontrollera att systemet följer människors värderingar och behov. Kommunikationen mellan människa och system görs genom att maskinen förklarar varför den tog ett visst beslut även kallat “Explainable AI” (XAI). Studien som genomförts påvisar att XAI saknar tydliga riktlinjer hur dessa förklaringar bör designas för att skapa förståelse till de som arbetar med dessa kraftfulla system. Detta examensarbete fokuserar på att undersöka kreditchefers roll i banken, vad dom baserar sina beslut på och hur användarcentrerade förklaringar kan bidra till ökad förståelse av AIproducerade beslut av låneansökningar. För att uppnå detta resultat har UX-metoder används som sätter verkliga användare i fokus. Datainsamlingen bestod av kvalitativa intervjuer med kreditchefer på banker i Sverige som sedan analyserades och jämfördes med rådande forskning inom AI och XAI. Ett 30-tal domänspecifika parametrar identifierades som låg till grund för sex designade förklaringar där förståelsen utvärderades genom att jämföra förklaringarnas olika resultat från kreditcheferna. Fem rekommendationer presenteras om hur AI-system bör presentera förklaringar till kreditchefer på mindre banker i Sverige.

  HÄR KAN DU HÄMTA UPPSATSEN I FULLTEXT. (följ länken till nästa sida)