Újabb fejlemény történt az Európai Bizottság által 2021-ben közzétett, a mesterséges intelligenciára vonatkozó harmonizált szabályok (A mesterséges intelligenciáról szóló jogszabály, „AI Act”) megállapításáról és egyes uniós jogalkotási aktusok módosításáról szóló rendelet-tervezetének elfogadása során. Az AI Act elfogadása jelenleg az uniós jogalkotók, az Európai Bizottság, a Tanács és az Európai Parlament („Parlament”) részvételével zajló rendes jogalkotási eljárásban tart, amelynek jelenleg is folyamatban lévő szakaszában a Tanács és a Parlament, mint társjogalkotók egyenként kompromisszumos szövegjavaslatot fogadnak el, amelyek beépítik a Bizottság által eredetileg közzétett AI Act-tervezethez érkezett módosító javaslatokat.

A Tanács 2022. decemberében elfogadta és közzétette saját kompromisszumos szövegjavaslatát, így a Parlamenten volt a sor, hogy a több, mint 2000 beérkező módosító javaslatot feldolgozza, és elutasítsa vagy beemelje saját kompromisszumos javaslatába. A Parlament AI Act elfogadásáért felelős két bizottságában, az IMCO (Belső Piaci és Fogyasztóvédelmi Bizottság) és LIBE (Állampolgári Jogi, Bel- és Igazságügyi Bizottság) bizottságban zajló munka eredményeként 2023. május 11-én, az IMCO&LIBE együttes bizottsági ülés alkalmával a bizottságok elfogadták az AI Act Parlament általi kompromisszumos szövegjavaslatát.

Jelen cikkünkben bemutatjuk a parlamenti kompromisszumos szövegjavaslatban foglalt leglényegesebb módosításokat, a Parlament által beillesztett új mesterséges intelligencia („MI”) definíciókat, rendelkezéseket, és az MI fejlesztési és felhasználási lánc szereplőire telepített egyes új kötelezettségeket.

Magyarázat a táblázat olvasásához:

  • normál szöveg: Parlament által a Bizottság tervezetéhez képest nem módosított szöveg
  • kiemelt szöveg: Parlament által újonnan beillesztett szövegjavaslat
  • áthúzott szöveg: Bizottság tervezetében szereplő, Parlament által törölt szöveg
Szabályozási tárgykör / magyarázat AI Act Parlament által elfogadott kompromisszumos javaslata (szó szerint idézve) Cikk száma Oldalszám a PDF-ben
Tárgy
Az AI Act tárgyi hatályának szabályai közé bekerült az emberközpontú jelző a megbízható mellé az MI leírásakor. The purpose of this Regulation is to promote the uptake of human centric and trustworthy artificial intelligence and to ensure a high level of protection of health, safety, fundamental rights, democracy and rule of law, and the environment from harmful effects of artificial intelligence systems in the Union while supporting innovation. 1. cikk 68. o.
Fogalmak
MI – módosult a definíció ‘artificial intelligence system’ (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions that influence physical or virtual environments. 3. cikk 1. pont 137. o.
Kockázat – teljesen új definíció ‘risk’ means the combination of the probability of an occurrence of harm and the severity of that harm; 3. cikk 1a. pont 137. o.
Magas kockázat – teljesen új definíció  ‘significant risk’ means a risk that is significant as a result of the combination of its severity, intensity, probability of occurrence, and duration of its effects, and its the ability to affect an individual, a plurality of persons or to affect a particular group of persons; 3. cikk 1b. pont 137. o.
“Foundation model’ – teljesen új definíció

A generatív MI ennek a “foundation model” MI-modellnek egy alkategóriája. A generatív MI nincs a 3. cikkben meghatározva a definíciók között, hanem egy újonnan beillesztett 28a cikk tartalmazza a meghatározását:

foundation models used in AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video (“generative AI”)

 

‘foundation model’ means an AI model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks

Kiegészíti: új (60a) preambulumbekezdés:

Foundation models are a recent development, in which AI models are developed from algorithms designed to optimize for generality and versatility of output. Those models are often trained on a broad range of data sources and large amounts of data to accomplish a wide range of downstream tasks, including some for which they were not specifically developed and trained. Those systems can be unimodal or multimodal, trained through various methods such as supervised learning or reinforced learning. AI systems with specific intended purpose or general purpose AI systems can be an implementation of a foundation model, which means that each foundation model can be reused in countless downstream AI or general purpose AI systems. These models hold growing importance to many downstream applications and systems.

3. cikk 1c. pont 137. o.
„Genaral purpose AI” – teljesen új definíció

Összesen jelenleg 3 helyen fordul elő a szövegben, itt a definícióban, és kétszer a (60a) preambulumbekezdésben, így kérdéses, hogy ebben a formában mennyire van haszna.

Fontos, hogy nem azonos a generatív MI definícióval.

 ‘general purpose AI system’ means an AI system that can be used in and adapted to a wide range of applications for which it was not intentionally and specifically designed; 3. cikk 1d. pont 137. o.
„Deployer” – Az eddig a bizottsági javaslat 3. cikk 2. bekezdésében foglalt „szolgáltató” („provider”) definícióból kiemelve (arról leválasztva) új kategória lett a „Deployer”, kb. a használót jelenti  ‘deployer’ means any natural or legal person, public authority, agency or other body using an AI system under its authority, except where the AI system is used in the course of a personal non-professional activity 3. cikk 4. pont 137. o.
Foundation model / General Purpose AI / Generative AI
A fenti definíciók résznél ismertetett három új definíció árnyalja, és tovább tagolja az AI Act-ben foglalt kötelezettségek rendszerét:

–          új „MI-modell”: foundation model

–          generatív MI (ami a foundation model egyik alkategóriájának tűnik)

–          új „MI-rendszer”: general purpose AI

 

à ld. a fenti definíciók résznél à ld. a fenti definíciók résznél à ld. a fenti definíciók résznél
A szolgáltató („provider”) részére egy teljes új cikkben kerültek be új kötelezettségek a „foundation model” MI használata esetén. Obligations of the provider of a foundation model

1. A provider of a foundation model shall, prior to making it available on the market or putting it into service, ensure that it is compliant with the requirements set out in this Article, regardless of whether it is provided as a standalone model or embedded in an AI system or a product, or provided under free and open-source licences, as a service, as well as other distribution channels.(…)

28b. cikk (1)-(3) bek. 39-41. o.
A szolgáltató új kötelezettségei „generative AI” használata esetén

 

–          Transzparensen fel kell tüntetni, hogy a végeredményt MI készítette, nem ember („not human-generated”) – Erre csak preambulumbekezdésben találtam rendelkezést. A 2022. decemberi tanácsi kompromisszumos szöveg 52 cikk (1) bekezdése azt mondja, hogy az MI rendszer szolgáltató kötelesek transzparensen tájékoztatni a felhasználókat arról, hogy MI rendszerrel interaktálnak, ennek lesz ez egy pontosítása a generatív MI esetén (pl. digitális művészet)

–          A generative AI rendszereket az uniós joggal és az alapvető jogokkal – többek között a véleménynyilvánítás szabadságával – összhangban kell megtervezni és fejleszteni

–          A szerzői jog hatálya alá tartozó képzési adatokról összefoglalót kell készíteni. Ennek az összefoglalónak “kellően részletesnek” (“sufficiently detailed”) kell lennie.

Providers of foundation models used in AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video (“generative AI”) and providers who specialise a foundation model into a generative AI system, shall in addition

a) comply with the transparency obligations outlined in Article 52 (1),

b) train, and where applicable, design and develop the foundation model in such a way as to ensure adequate safeguards against the generation of content in breach of Union law in line with the generallyacknowledged state of the art, and without prejudice to fundamental rights, including the freedom of expression,

c) without prejudice to national or Union legislation on copyright, document and make publicly available a sufficiently detailed summary of the use of training data protected under copyright law.

 

Kiegészíti: új (60g) preambulumbekezdés:

Generative foundation models should ensure transparency about the fact the content is generated by an AI system, not by humans.

28b cikk (4) bek.

 

 

(60g) preambulumbek.

40-41. o.

 

 

 

28-29. o.

Cikkünk folytatásában tovább tárgyaljuk a Parlament kompromisszumos szövegjavaslata által bemutatott változtatásokat, például a tiltott-MI rendszerek listájának és a magas kockázatú MI-rendszerek besorolásának javasolt új szabályait.