EU Kommissionens forslag til direktiv om civilretligt ansvar til kunstig intelligens (AI liability-direktiv)
Nyhed

EU Kommissionens forslag til direktiv om civilretligt ansvar til kunstig intelligens (AI liability-direktiv)

IT & Teknologi
EU Kommissionen har den 28. september 2022 fremsat forslag til et nyt AI-direktiv, der har til formål at sikre, at ofre for skader forårsaget af kunstig intelligens får samme beskyttelse som ofre for skader forårsaget af produkter i almindelighed.

I en undersøgelse fra 2020 var spørgsmålet om erstatningsansvar blandt de tre største hindringer for europæiske virksomheders anvendelse af løsninger baseret på kunstig intelligens. Det er Kommissionens opfattelse, at de nuværende nationale regler, ikke er egnede til at håndtere spørgsmålet om erstatningsansvar i forbindelse med skader forårsaget af AI-systemer. Kompleksiteten ved kunstig intelligens, herunder den såkaldte "black box" effekt, gør det vanskeligt for ofrene at identificere den ansvarlige og bevise, at kravene for at opnå erstatning er til stede. Direktivforslaget forsøger netop at håndtere disse udfordringer ved at fastsætte regler om i) udlevering af bevismateriale og ii) bevisbyrde.

Sammenhæng med andre områder

Direktivforslaget er udarbejdet i tæt tilknytning til retsakten om kunstig intelligens (AI-forordningen) og henviser i høj grad til de samme definitioner.[1] Forslaget berører ikke i øvrigt de nationale definitioner af ansvarsgrundlag, årsagssammenhæng mv.

Forslaget er fremsat samtidig med et nyt revideret direktiv om produktansvar, der har til formål at modernisere den eksisterende ordning for objektivt produktansvar på EU-plan. [2] 

Desuden berører forslaget ikke ansvarsfritagelserne og due diligence-forpligtelserne fastsat i retsakten om digitale tjenester.

Anvendelsesområde

Direktivforslaget gælder alene for erstatningskrav uden for kontrakt, når skaden er forårsaget af et output eller manglende output fra et AI-system på grund af en personfejl, f.eks. hos udbyderen eller brugeren, og omfatter således ikke tilfældet, hvor AI-systemet kun gav oplysninger eller råd, som en person tog hensyn til i sin vurdering og efterfølgende handling eller undladelse på baggrund heraf.

Virksomhederne skal i den forbindelse være opmærksomme på, at direktivforslaget udgør en minimumsharmonisering, hvorfor sagsøgere kan påberåbe sig gunstigere regler i national ret, f.eks. ift. bevisbyrderegler.

Hvad er hovedpointerne?

1. Udlevering af bevismateriale

Direktivforslaget fastsætter:

En procedure, hvor en sagsøger kan anmode domstolene om at få udleveret dokumentation vedrørende et højrisiko AI-system som grundlag for et erstatningskrav.

For at domstolene godkender en sådan anmodning om udlevering af dokumentation, skal sagsøgeren fremlægge faktiske omstændigheder og beviser, der er tilstrækkelige til at underbygge troværdigheden af et erstatningskrav.

De nationale domstole skal begrænse fremlæggelsen af beviser til det, der er nødvendigt og forholdsmæssigt for at understøtte et potentielt krav, herunder tage hensyn til parternes legitime interesser og beskyttelsen af forretningshemmeligheder.

2. Nye bevisbyrderegler 

Direktivforslaget fastsætter:

En formodningsregel for de nationale domstole, hvor domstolene skal antage, at der er årsagssammenhæng mellem sagsøgtes fejl og AI-systemets output eller manglende output, hvis følgende kumulative betingelser er opfyldt:

a) sagsøger har godtgjort, eller retten i tilfælde af sagsøgtes manglende efterlevelse af domstolens kendelse om udlevering af dokumentation har lagt til grund, at sagsøgte har begået en fejl i form af manglende overholdelse af regler fastsat i EU-retten eller national ret (AI-forordningen), som direkte har til formål at beskytte mod den skade, der er indtrådt;

b) det på grundlag af sagens omstændigheder kan anses for rimeligt sandsynligt, at fejlen har påvirket det output, som AI-systemet genererer, eller AI-systemets manglende output; og 

c) sagsøgeren har godtgjort, at det output, der produceres af AI-systemet, eller AI-systemets manglende output har givet anledning til skaden.

Formodningsreglen finder dog ikke anvendelse for et højrisiko AI-system, hvis sagsøgte påviser, at der er tilstrækkelig dokumentation og ekspertise til rådighed for sagsøger til at bevise årsagssammenhængen. 

Når det kommer til AI-systemer, som ikke i henhold til AI-forordningen anses for højrisiko AI-systemer, gælder denne formodningsregel alene, hvis den nationale domstol vurderer, at det er uforholdsmæssigt vanskeligt for sagsøger at bevise årsagssammenhængen.

Erstatningskrav mod udbydere/den person, der er underlagt en udbyders forpligtelser af højrisiko AI-systemer

Direktivforslaget fastslår, at ovennævnte punkt a) kun er opfyldt, hvis det påvises, at udbyderen eller den person, der er underlagt en udbyders forpligtelser efter AI-forordningen ikke har opfyldt et af bl.a. følgende krav fastsat i AI-forordningen under hensyntagen til sagsøgtes implementering af et risikostyringssystem i overensstemmelse med AI-forordningen og resultaterne af et sådant system:

  1. AI-systemet er et system, der gør brug af teknikker, der omfatter træning af modeller med data, og som ikke er udviklet på grundlag af trænings-, validerings- og prøvningsdatasæt, der opfylder de kvalitetskriterier, der er fastsat i AI-forordningen.
     
  2. AI-systemet ikke er udformet og udviklet på en måde, der opfylder gennemsigtighedskravene i AI-forordningen.
     
  3. AI-systemet ikke er udformet og udviklet med henblik på at opnå et passende niveau af nøjagtighed, robusthed og cybersikkerhed efter AI-forordningen.

Erstatningskrav mod brugere af AI-højrisikosystemer

Ovennævnte punkt a) er opfyldt, hvis sagsøger godtgør, at brugeren f.eks.:

  1. ikke har opfyldt sine forpligtelser til at anvende eller overvåge AI-systemet i overensstemmelse med de ledsagende brugsanvisninger eller
     
  2. har udsat AI-systemet for inputdata under sin kontrol, som ikke er relevante i forhold til systemets formål.

Erstatningskrav mod en sagsøgt ved privat brug

Formodningsreglen finder kun anvendelse mod en sagsøgt, der har anvendt AI-systemet i en personlig, ikke-erhvervsmæssig aktivitet, hvis sagsøgte væsentligt har grebet ind i betingelserne for AI-systemets drift, eller hvis sagsøgte var forpligtet til og i stand til at fastlægge betingelserne for AI-systemets drift og undlod at gøre dette.

Den videre proces

Kommissionens forslag skal nu vedtages af Europa-Parlamentet og Rådet, og forslaget kan læses her.

Direktivforslaget er endnu et incitament til at sikre implementering og overholdelse af de omfattende regler i AI-forordningen.

Kontakt Lundgrens’ IT Team, hvis du har spørgsmål til det nye forslag til direktiv, herunder hvilken effekt det kunne få for din virksomhed, hvis direktivet bliver vedtaget i sin nuværende form.

 

[1] https://eur-lex.europa.eu/legal-content/DA/TXT/?uri=CELEX:52021PC0206

[2] https://single-market-economy.ec.europa.eu/system/files/2022-09/COM_2022_495_1_EN_ACT_part1_v6.pdf