För investerare
Gå till MyFondia

Direktivet om utomobligatoriskt skadeståndsansvar för AI

Tekniken utvecklas i rasande fart och det är inte lätt för lagstiftarna att hänga med. En allt viktigare fråga, både för slutanvändare, företag och rättsväsendet, har varit ansvarsfrågorna i samband med AI-användning.

AI-system används redan i stor utsträckning och tyvärr har det redan förekommit fall där användningen av AI-system har orsakat skada för enskilda individer. Vi har sett exempel på felaktiga och partiska beslut av myndigheter som använt AI-system i beslutsprocesser avseende välfärds- och socialförsäkringsförmåner, eller av banker när de beviljar lån, och så vidare.

I takt med att EU fortsätter att reglera den digitala marknaden och ekonomin har AI Liability Directive föreslagits i syfte att stärka det rättsliga skyddet för individer som drabbats av skador orsakade av AI-system.  

Vad?

AI Liability Directive syftar till att reglera det utomobligatoriska skadeståndsansvaret för skador som orsakats på grund av AI-system. Detta för att ta itu med bevissvårigheterna som annars är kopplade till AI. Med andra ord syftar direktivet till att säkerställa att berättigade anspråk inte hindras på grund av denna bevissvårighet och att enskilda har samma möjligheter att få ersättning för skador som orsakats av ett AI-system som de som lider skada på annat sätt.

Varför?

Med vår nuvarande nationella lagstiftning måste den som har lidit skada visa att det beror på att någon har agerat felaktigt eller inte agerat när de kunde ha gjort det. När detta tillämpas på AI inser vi snabbt att det kan bli oerhört svårt för en person att bevisa detta samband när AI-system ibland agerar självständigt och utan mänsklig insyn. AI-systemets inputs och "handlingar" kan till och med vara helt osynliga, ett så kallat "black box"- AI-system.

Därför syftar AI-ansvarsdirektivet till att tillhandahålla en mer anpassad reglering för att säkerställa att berättigade anspråk inte hindras på grund av bevissvårigheter.

Hur?

Två exempel på vad som föreslås i direktivet är 1) att ge domstolar möjlighet att ålägga AI-leverantörer att lämna ut bevis och 2) att införa en presumtion om orsakssamband.

1) Möjlighet att begära utlämnande av bevisning

I direktivet föreslås att en domstol ska kunna ålägga en AI-systemleverantör att lämna ut bevis om högrisk-AI-system (enligt de riskdefinitioner som föreslås i AI Act) som påstås ha orsakat skada. När domstolarna gör detta måste de begränsa föreläggandet till vad som är nödvändigt och proportionerligt med hänsyn till andra intressen, såsom affärshemligheter och till och med information om nationens säkerhet.

När det gäller AI-system som inte är högrisk-klassade gäller denna presumtion endast om domstolen fastställer att det är orimligt svårt för käranden att bevisa det tillfälliga sambandet.

2) Bevisbörda och presumtion om orsakssamband

För att underlätta för lidande individer att få ersättning när det är berättigat, föreslår direktivet en presumtion om kausalitet (orsakssamband) mellan den lidna skadan och felet i AI-systemet. Felet utgörs av någon form av bristande efterlevnad av unionslagstiftning eller nationell lagstiftning som är direkt avsedd att skydda mot den skada som inträffat och att detta fel har påverkat AI-systemets resultat eller AI-systemets misslyckande med att producera sådant resultat.

Den skadelidande måste fortfarande visa att hen har lidit skada som orsakats av AI-systemets resultat. Men, hen behöver inte visa att de resultat som orsakade skadan berodde på ett fel i AI-systemet, såvida inte käranden kan bevisa detta med rimliga ansträngningar (t.ex. genom att begära att domstolen beslutar om utlämnande av bevisning).

Väldigt förenklat kan sägas att nedan punkten 1) förutsätts om en skadelidande kan bevisa nedan punkten 2).

1) Felet i AI-systemet påverkar ett visst resultat.

2) AI-systemets output orsakar en individ skada.

Direktivet är fortfarande bara ett förslag och måste slutligt godkännas och därefter implementeras i nationell lagstiftning eftersom det är ett EU-direktiv. AI Act har inte heller godkänts ännu, men förväntas antas inom kort.

Till skillnad från AI-ansvarsdirektivet kommer AI Act (när den väl är tillämplig) att vara direkt tillämplig i hela EU utan behov av nationell implementering. Den förväntas bli slutgiltigt godkänd i slutet av 2023, vilket troligen skulle innebära att den blir tillämplig 2025.

Fondia rekommenderar våra kunder att implementera och/eller utveckla AI-drivna verktyg på ett medvetet sätt och att ta ett helhetsgrepp för att undvika onödiga risker, eller till och med sanktioner eller skadestånd.

Fondias Data- och AI-team fortsätter att följa utvecklingen av detta direktiv och andra relaterade regleringar. Tveka inte att kontakta oss om du har några frågor eller behöver råd.  

 

AI
AI Liability Directive