Skip to main content

Vélemény

sajtó csomag

Töltse le a Clementine bemutatkozó anyagát.

SAJTÓKAPCSOLAT

E-mail: Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.
Tel: +36 1 457 0561
Fax: +36 1 457 0562
Cím: 1115 Budapest,
Bartók Béla út 105-113.

Küszöbön az MI összeurópai szabályozása

Küszöbön az MI összeurópai szabályozása

2024. május 10.

Amerika innovál, Európa szabályoz – a közkeletű és kissé szigorú vélemény mostanában többször megfogalmazódott, leginkább az AI Act kapcsán. Az Európai Uniónak a mesterséges intelligencia használatáról szóló szabályozása 2021 áprilisában lett publikus. Bár a jogszabály még az elfogadási folyamatban tart és az Európai Tanács az utolsó ellenőrzéseket végzi, iparági szakértők szerint nagyon fontos szöveg született. 

Az AI Act célja

Az angol nyelvű szöveg közel 500 oldalon tárgyalja a többek közt a generatív MI által felhozott problémákra adandó európai válaszokat. Emiatt ez a cikk csak e leglényegesebb pontjait tudja bemutatni, hozzátéve, hogy a jogszabály szakmai értékelése még nem fejeződött be.

A javaslat célja, hogy egységes jogi keretrendszert hozzon létre az EU-ban a jelenlegi töredezett szabályozás helyett. Természetesen fontos az emberek alapvető jogainak és szabadságainak védelme az MI-alkalmazások által jelentett kockázatokkal szemben, miközben jogbiztonságot és kiszámíthatóságot szeretne teremteni a fejlesztők és alkalmazók számára. Nem utolsósorban (Lásd a cikk elején az idézett mondatot!) az AI Act támogatni kívánja az EU innovációs és gazdasági fejlődését azzal, hogy egységes piacot hoz létre az MI-termékekre és -szolgáltatásokra.

Kockázatok és mellékhatások

A fenti, nemes és jól csengő célokat kockázat alapú megközelítésben tárgyalja a tervezet. Négy kategóriába sorolja az MI-rendszereket a fogyasztóra és a társadalomra való kockázatuk alapján:

  1. Elfogadhatatlan kockázat: tilos az olyan MI-alkalmazások használata, amelyek manipulálják az embereket tudatalatti technikákkal vagy kihasználják a kiszolgáltatott csoportokat (pl. gyerekeket), továbbá az ún. social scoring rendszerek alkalmazása hatósági döntésekhez, erre negatív példa a kínai gyakorlat.

  2. Magas kockázat: idetartoznak pl. a munkaerő toborzásra, hitelminősítésre, kritikus infrastruktúrák üzemeltetésére használt, vagy a bűnüldözésben, igazságszolgáltatásban alkalmazott MI-rendszerek. Ezekre részletes kötelezettségek vonatkoznak:

    • Kockázatértékelés és -kezelés,

    • Magas szintű adatminőség és governance,

    • Emberi felügyelet, beavatkozás lehetősége,

    • Nyomon követhetőség és dokumentáció,

    • Átláthatóság és tájékoztatás a felhasználók felé,

    • Kiberbiztonság,

    • Megfelelőségértékelés forgalomba hozatal előtt.

  3. Alacsony kockázat: a legtöbb MI-alkalmazás ide fog tartozni (pl. chatbotok, videojátékok MI-je). Rájuk kevés kötelező előírás vonatkozik, de önkéntes magatartási kódexek betartása ajánlott lesz.

  4. Minimális kockázat: a tisztán személyes használatú vagy kisegítő jellegű MI-rendszerek (pl. spamszűrők) szinte semmilyen speciális szabályozás alá nem fognak esni, csak az általános fogyasztóvédelmi, termékbiztonsági követelményeknek kell megfelelniük.

Mit várnak a törvényalkotók a szabályozástól?

Elsősorban a fogyasztók és állampolgárok védelme erősödhet az MI káros hatásaival szemben, különösen a magas kockázatú MI-rendszerek veszélyét illetően.

A bizalom növekedését várják az MI-technológiák iránt, hiszen garanciák lesznek a biztonságos és etikus működésükre. Ez ösztönzi az MI szélesebb körű elfogadását és használatát.

Az egységes EU-s szabályozás csökkenti a jogi bizonytalanságot és a megfelelési költségeket az MI-fejlesztők és -alkalmazók számára. Ez kedvez az innovációnak és beruházásoknak Európában.

A magas szintű EU-s elvárások igazodási pontként szolgálhatnak a globális sztenderdek kialakításához, így az EU vezető szerepet játszhat a felelős MI nemzetközi szabályainak formálásában.

A speciális támogatási eszközök, mint a regulatory sandboxok segítik a cégeket az AI Act követelményeinek való megfelelésben és az innovatív MI-megoldások kikísérletezésében kontrollált körülmények között.

Aggályok

Szakértők egy csoportja negatívumokat is megfogalmazott az AI Act-ról. Ezek egy része a kidolgozatlanságot említi, például a biometrikus azonosítás vagy az érzelemfelismerés terén. Emellett a magas küszöbértékek az általános célú alapmodellek tekintetében azt eredményezhetik, hogy számos nagy hatású modell kimarad a szigorúbb követelmények alól.

Valószínűleg az innováció védelme, segítése és a reguláció viszonya fogja eldönteni, hogy a gyakorlatban hogyan válik be a törvény, ha európai jogerőre emelkedik.

Az AI Act egy differenciált és átfogó szabályrendszert vezet be a világon először egy nagyobb gazdasági térség számára. Végrehajtásáért és a felügyeletéért elsősorban a tagállami hatóságok lesznek felelősek, miközben a Bizottság javaslata szerint létre fog jönni egy Európai MI-testület is a tagállami szervek munkájának koordinálására, iránymutatások kiadására. A szabályok megsértése esetén a kiszabható bírságok a globális árbevétel 2-6%-át is elérhetik, vagy 30 millió euróra rúghatnak – tehát az AI Act mindenképpen kőkemény gazdasági kérdést is jelent.

A többi MI-nagyhatalom (USA, Kína) egyelőre nem rendelkezik hasonló jogszabállyal.

 

A témáról a dataSTREAM 2024 konferencián bővebben is hallhatunk Horváth Katalin, a CMS Budapest Ügyvédi Iroda partnerének előadásában.