A 2022-ben közzétett, a „szerződésen kívüli polgári jogi felelősségre vonatkozó szabályoknak a mesterséges intelligenciához való hozzáigazításáról” szóló MI Felelősségi Irányelv („MI Felelősségi Irányelv”) célja, hogy harmonizált szabályokat vezessen be az MI által okozott károkért való szerződésen kívüli felelősséggel kapcsolatban – a tervezetről itt írtunk részletesen.

2024. szeptember 19-én az Európai Parlament mellett működő parlamenti kutatószolgálat („EP Kutatószolgálat”) Kiegészítő Hatásvizsgálatot tett közzé az MI Felelősségi Irányelvvel kapcsolatban. A Kiegészítő Hatásvizsgálat az időközben elfogadott EU AI Act-re és az EU új Termékfelelősségi Irányelvére („Termékfelelősségi Irányelv”) tekintettel számos módosítást javasol az MI Felelősségi Irányelv tervezett rendelkezéseihez.

A mesterséges intelligencia (MI) szabályozásának uniós rendszerében az MI Felelősségi Irányelv lehet a következő fontos elem – az 58 oldalas Kiegészítő Hatásvizsgálat új lendületet adhat a jogszabály véglegesítésével kapcsolatos, átmenetileg lelassult, sőt, egyes tagállamok által vitatott szükségességű jogalkotási folyamatnak. Ebben a cikkben összefoglaljuk a Kiegészítő Hatásvizsgálat legfontosabb megállapításait.

1. Az MI Felelősségi Irányelv

Az MI Felelősségi Irányelv az alábbi két fő esetkörben állapít meg harmonizált eljárásjogi szabályokat az MI-vel kapcsolatos polgári jogi felelősséggel kapcsolatban:

  • A nagy kockázatú MI-rendszerek által okozott károk bizonyításának megkönnyítése – a vonatkozó bizonyítékok (például a nagy kockázatú MI-rendszerek leírása és a kapcsolódó előzetes kockázatértékelés) bemutatására vonatkozó szabályok meghatározása segítségével.
  • A kártérítési igényt érvényesíteni kívánó felet terhelő bizonyítási teher megkönnyítése – bármely MI-rendszer által szerződésen kívül okozott vélt vagy valós kár esetén.

2. A Kiegészítő Hatásvizsgálat megállapításai

Az EP Kutatószolgálatának javaslatai közül az MI Felelősségi Irányelv, az AI Act és a Termékfelelősségi Irányelv harmonizálása szempontjából az alábbiakat tartjuk kiemelt jelentőségűnek:

Az MI Felelősségi Irányelv, az AI Act és a Termékfelelősségi Irányelv definícióinak egységesítése

Az MI Felelősségi Irányelv jelenlegi formájában az AI Act definícióira épül. Ennek a lehetséges gyakorlati következménye, hogy az AI Act-ben szereplő, széles körűen értelmezhető „MI-rendszer” definíció alapján „MI-rendszernek” minősülő, de adott esetben kevésbé bonyolult és viszonylag alacsony autonómiájú rendszerek által okozott kár által érintett személyeket kárigényük esetén megilletik az MI Felelősségi Irányelv által biztosított eljárásjogi könnyítések, egy gépi tanuláson alapuló, komplex, automatizált, de MI-rendszernek mégsem minősülő szoftver által okozott kár által érintett személyeket azonban nem. Ezt az ellentmondást fontos kezelni az MI Felelősségi Irányelv véglegesítése során, mert a felperes károsult egy MI-rendszernek nem minősülő szoftver okozta kár esetén is hasonló igényérvényesítési és bizonyítási nehézségekbe ütközhet, mint egy MI-rendszer okozta kár esetén.

Az MI Felelősségi Irányelv, az AI Act és a Termékfelelősségi Irányelv hatályának összehangolása

A Termékfelelősségi Irányelv személyi hatálya kifejezetten a gazdasági tevékenység körében eljáró gazdasági szereplőkre vonatkozik, a fogyasztónak minősülő felhasználók által okozott károkra nem terjed ki. Az MI Felelősségi Irányelv ezzel szemben a fogyasztók által okozott károk esetén is alkalmazandó. Indokolt lenne, hogy a felelősségi szabályozás minden felhasználói csoport által okozott károkat lefedjen, ideértve például generatív MI alkalmazások felhasználói által okozott esetleges károkat is.

A Termékfelelősségi Irányelv szerinti kártérítéshez való jog által érintett károk (haláleset, személyi sérülés, vagyonban bekövetkezett kár, nem szakmai célokra használt adatok megsemmisülése vagy sérülése) köre lényegesen szűkebb, mint amilyen károkat a gyakorlatban egy MI-rendszer okozhat, és amelyek az MI Felelősségi Irányelv alapján kártérítési igényt alapozhatnak meg. A Termékfelelősségi Irányelv alapján nem érvényesíthető kártérítési igény az alábbi esetekben: (i) diszkrimináció, valamint személyiségi jogok és alapvető jogok megsértése, (ii) szellemi tulajdonjogok megsértése, (iii) fenntarthatóság, így környezeti és klímahatásokkal kapcsolatos jogsérelmek, (iv) tisztán vagyoni, vagyis fizikai (személyi vagy tárgyi) sérüléssel nem járó károk. Az utóbbi kategória különösen fontos a pénzügyi és biztosítási szektorban használt, az AI Act szerint egyébként nagy kockázatú MI-rendszerek által esetleg okozott károk esetében – például MI-alapú hitelminősítő rendszer téves besorolása alapján elutasított hitelkérelem miatt felmerült üzleti veszteség, kárigény-elbíráló MI-rendszer hibája miatt egyébként jogszerű kárigények visszautasítása, MI-rendszer által végzett kockázatelemzés pontatlansága miatt bekövetkező hibás biztosítási díjszámítás.

Kockázatkezelés az AI Act „nagy kockázatú” MI-rendszerein túl

Az AI Act-ben meghatározott kötelezettségek legnagyobb része a nagy kockázatú MI használatára vonatkozik – például biometrikus azonosítás és érzelemfelismerés, foglalkoztatás, hitelbírálat, egészség- és életbiztosítás. Az AI Act ezzel a megközelítéssel elsősorban az AI társadalmi szintű kockázatait kezeli. Felmerülhet azonban egyéni kockázat is – ha egy, az AI Act besorolása szerint nem feltétlenül nagy kockázatú MI-rendszer működése miatt egy nagyobb populációban kis számú személyt ér kár. Az EP Kutatószolgálat ezért javasolja az MI Felelősségi Irányelvben egy új „nagy hatású MI-rendszerek” kategória meghatározását, amely a nagy kockázatú MI-rendszerek mellett a jogalkotó által meghatározott egyéb, komolyabb kockázatot hordozó MI-rendszereket is magában foglalna (például önvezető autók, vagy közlekedéssel kapcsolatos MI-rendszerek).

Rugalmasabb (megdönthető) vélelmek az MI-rendszerek hibájával kapcsolatban

Az MI Felelősségi Irányelv szerint a bíróság vélelmezi, hogy az alperes (az MI-szolgáltatási lánc valamely szereplője, fejlesztő, szolgáltató, alkalmazó) hibája okozta az MI-rendszer hibás kimenetét, ha a felperes bizonyította, hogy az alperes megszegte a kár megelőzésére vonatkozó gondossági kötelezettséget, és ésszerűen feltételezhető, hogy ez a magatartása befolyásolta az MI-rendszer működését. Az EP Kutatószolgálat az ok-okozati összefüggésekkel kapcsolatos megdönthetetlen vélelemmel kapcsolatban rugalmasabb megközelítést javasol, amely szerint indokolt lehet a fenti vélelem megdöntése olyan esetekben, amikor az alperes az AI Act rendelkezései alapján kezdetben nem megfelelő MI-rendszer hibáját kijavította és ezáltal a jogsértést (a meg nem felelést) elhárította.

Ezen túlmenően, az MI Felelősségi Irányelv az AI Act 14. cikke  [Emberi felügyelet] megsértése esetén vélelmezi az ok-okozati összefüggést a nagy kockázatú MI-rendszer kimenete és a kár között. A vélelem alapja, hogy az AI Act 14. cikkének  megsértése közvetlenül a teljes emberi felügyelet hiányát jelenti, vagyis hiányzik a hibás kimenetet egyébként orvosolni tudó emberi beavatkozás lehetősége. Az EP Kutatószolgálat ezzel kapcsolatos javaslata szerint az MI Felelősségi Irányelv lehetővé tehetné az MI-rendszer fejlesztője vagy szolgáltatója számára a vélelem megdöntését annak bizonyítása esetén, ha „rendkívül valószínűtlen, hogy a megfelelő emberi felügyelet képes lett volna a károkozó kimenet előzetes észlelésére vagy kijavítására, illetve a kár megakadályozására.