Robotok, önvezető autók, drónok – a 21. század technológiai- és innovációs környezetének okos vívmányai, amelyek emberi közreműködés nélkül teszik mindennapi életünket komfortosabbá, gyorsabbá – és ez által hatékonyabbá. De vajon ki felel a mesterséges intelligenciák által okozott károkért?
Mit nevezünk robotikának? Milyen kreatúrák tartoznak a mesterséges intelligencia által működtetett robotok közé?
Az első tisztázandó kérdés, hogy vajon mi minősül robotikának, illetve milyen eszközök sorolhatóak a robotok tárgykörébe, továbbá mit is jelent az MI – azaz a mesterséges intelligencia. A robotika egy innovációs folyamatot feltételez, amely magától a robot megtervezésétől kezdődően, annak létrehozásán keresztül, a robot szoftver szintű fejlesztéséig és beprogramozásáig terjed. A mesterséges intelligencia a robotika kisebb részét öleli fel – annak implementálásával működő robotok körébe az emberi közrehatás nélkül, egyfajta mesterségesen létrehozott tudaton keresztül irányításra képes eszközök sorolhatóak. Mesterséges intelligenciának egy gép, program vagy mesterségesen létrehozott tudat által megnyilvánuló intelligenciát nevezzük. Mindezek vívmányai lehetnek a robotok, az önvezető autók és a drónok is. Működésük és környezeti megjelenésük szerteágazó, azonban számos jogkérdés merül fel üzemi működésük – és annak következményei – tekintetében.
A mesterséges intelligencia használata világszerte egyre elterjedtebbé válik, egyes kultúrákban a robotok már az emberek akarata nélkül is civil hétköznapjaik szerves részévé váltak. De vajon hogyan viszonyul a fogyasztói társadalom a robotokhoz? Ki felel az autonóm eszközök által okozott károkért?
A mesterséges intelligencia – a leginnovatívabb informatikai területként – folyamatos kihívások elé állítja a szabályozói környezet minden ágazatát, valamint a fogyasztói társadalom magatartását. A jelenlegi jogi keretek között a robotok önmagukban nem vonhatók felelősségre azokért a cselekedetekért vagy mulasztásokért, amellyel egy másik személynek kárt okoznak. A jelenlegi felelősségi szabályok azokra az esetekre lettek kitalálva, amikor a robot cselekedetének vagy mulasztásának oka visszavezethető egy konkrét emberi szereplőre (pl: gyártó, működtető, tulajdonos, felhasználó.) De vajon terhelhet-e a felelősség emberi szereplőt a robot által okozott károkért? A polgári jog szabályai szerint igen, azonban felmerülhet olyan esetkör is, amikor felelősség nem terhelheti a használót vagy az üzembentartót. Nem tehető felelőssé a robot használója, ha a robot működéséért felelős szoftver programozói hibából/hiányosságból ered a mechanikai probléma – és az ez által bekövetkezett kár. (A szoftver-programozási hiányosságok kapcsán felmerülő kérdésekre már a szerzői jog adhat választ – pl. ha az eszköz szerzői jogvédelem alatt álló szoftverrel működik.)
Az autonóm eszközök használatából eredő károk terén felmerülő felelősségi kérdésekre a veszélyes üzemi felelősség szabályai (Ptk. 6:535. §) az irányadók. Fokozott veszéllyel járó tevékenység folytatójának az minősül, akinek érdekében a veszélyes üzem működik – tehát e tárgykörben adott esetben a drón használója, vagy az önvezető autó sofőrje. Ha a veszélyes üzemnek több üzembentartója van, őket károkozás esetén közös károkozónak kell tekinteni. Az üzembentartónak nem kell megtérítenie a kárt annyiban, amennyiben az a károsult felróható magatartásából származott. A kármegosztásnál a tevékenység fokozottan veszélyes jellegét az üzembentartó terhére kell figyelembe venni.
Önvezető autók által okozott károk esetében a felelős főszabály szerint a károkozó, a mesterséges intelligenciával rendelkező jármű üzembentartója. Az autonóm járművek e típusa nélkülözhetetlenné teszi a vezető készenlétben állását és szükség esetén az ő esetleges beavatkozását. Mivel az önvezető járműveknek nincs akaratuk, így esetükben maga a felelősséget megalapozó felróhatóság sem merülhet fel. Az önvezető autó üzemelése során az okozati összefüggés okozói oldaláról vizsgálva, alapvetően négy esetkört különíthetünk el: (i) a hardver (vagyis a gépjármű mechanikus és elektromos alkatrészeinek valamelyike vagy ezek összessége), (ii) a vezető, (iii) a szoftver és (iv) ezek szabadon permutált együttese által okozott baleseteket. A veszélyes üzemi felelősség alóli mentesülés egyik objektív feltétele az, hogy a kár oka a fokozott veszéllyel járó tevékenység körén kívül essen, a másik mentesülésre vezető konjunktív feltétel az, hogy az ok elháríthatatlan legyen.
A drónok helyzetét sem jogszabályi környezet sem a bírói gyakorlat nem rendezi, a drónhasználat azonban szintén veszélyes üzemnek minősül, használata tehát fokozott veszéllyel járó tevékenység. A drón általi személyi sérülés vagy vagyoni hátrány okozására a légi közlekedésről szóló 1995. évi XCVII. törvény légi közlekedésre vonatkozó szabályai az irányadók, azonban a tulajdonost/üzembentartót ez esetben teljes büntetőjogi felelősség is terheli. Főszabály szerint a kárfelelős a pilóta nélküli légi jármű üzembentartója, amely gyakran egybe esik a tényleges károkozó személyével. Amennyiben nem esik egybe a drónhasználó személye az üzembentartó személyével, nem a használó „pilóta” felel. Megjegyezendő, hogy a drónok – a magánszférába történő beavatkozásuk által – jelentős immateriális veszélyt is jelenthetnek. (lsd. A Nemzeti Adatvédelmi és Információszabadság Hatóság ajánlása a drónokkal megvalósított adatkezelésekről – ITT elolvasható)
A drónhasználat a polgári jog egyéb területén is vethet fel kérdéseket: használata személyiségi jogi sérelmet is okozhat. Arra az esetre, ha személyiségi jogsértés nem állapítható meg, egy analógiaként hivatkozható ítélet szerint azonban a birtokháborítás megállhat. „A szomszédos lakóépületben folytatott tevékenység engedély nélküli filmre vétele jogsértés bizonyítása végett – ha személyiségi jogot nem is sért – birtokháborítást valósíthat meg.” (EBH 519/2001)
Konklúzióként levonható, hogy a szerződéses viszonyokon kívül okozott károkért a szoftver üzembentartói felelnek főszabály szerint, akik legtöbbször a felhasználók. A mesterséges intelligencia által vezérelt szoftver üzembentartójának tehát főszabály szerint mindig viselnie kell a felelősséget, azt nem háríthatja át másra, mivel a mesterséges intelligencia viselkedése előre nem tervezhető. Kivétel lehet viszont, ha sikerül bizonyítani, hogy a szoftver működési körén kívüli külső tényezővel van okozati összefüggésben a káresemény bekövetkezése.