“Skyll inte på mig, det var AI-systemet” - En analys huruvida AI-teknikens komplexa egenskaper försvårar tillämpningen av svensk skadeståndsrättslig reglering när AI orsakar sakskador i utomobligatoriska förhållanden

Detta är en Magister-uppsats från Göteborgs universitet/Juridiska institutionen

Författare: Moa Svantesson; [2021-09-17]

Nyckelord: AI; Skadeståndsrätt; EU-rätt;

Sammanfattning: Artificiell intelligens (AI) förutspås revolutionera stora delar av samhället. Redan idag diagnostiserar AI-system patienter bättre än läkare och förutspås lösa några av mänsklighetens mest omfattande problem såsom att förhindra klimatförändringar och bota kroniska sjukdomar. Teknisk innovation får dock aldrig prioriteras över rättssäkerhet. Det finns idag ingen lagstiftning som är utformad för att reglera AI. Således har rättslig reglering för AI på senare tid varit en av Europeiska unionens (EU) högsta prioriteter. Det finns dock vissa egenskaper hos AI-tekniken som gör den svårreglerad. Bristande transparens inom systemet, oförutsägbara slutsatser och bristande träningsdata är bara några egenskaper hos AI-system som gör att AI blir svårreglerat. Det har därför uppmärksammats att skadeståndsregleringen är svårtillämpad när AI-system orsakar sakskada, då det bland annat är oklart vilken aktör som ska hållas ansvarig. Det uppstår övriga skadeståndsrättsliga frågor såsom hur adekvat kausalitet och culpa ska bedömas när det är ett AI-system som är skadevållare, vilket förevarande uppsats har för syfte att uppmärksamma.

  HÄR KAN DU HÄMTA UPPSATSEN I FULLTEXT. (följ länken till nästa sida)