Az Európai Unió Mesterséges Intelligencia törvényét (Artificial Intelligence Act – AI Act) 2024 márciusában fogadta el az Európai Parlament, rendelkezései a következő években fokozatosan, a teljes dokumentum 2026-ban lép majd hatályba. Az eseményeket a Gazdasági Együttműködési és Fejlesztési Szervezet (továbbiakban: OECD) is figyelemmel kíséri, korábban a Bizottság az OECD-tagállamokkal együtt végezte az eredeti és a felülvizsgált javaslatok kidolgozását is. Az AI Act-hez fűződő ajánlásait a szervezet digitális szakbizottsága április elején jóváhagyta, a végleges dokumentumot május 2-3-án fogadhatják el az OECD miniszteri szintű találkozóján. Az ajánlások, habár nem keletkeztetnek jogokat vagy kötelezettségeket, kulcsfontosságúak lesznek a végrehajtás szempontjából.
Az AI Act
Az Európai Bizottság 2021 áprilisában mutatta be javaslatát az AI Act vonatkozásában, jóval megelőzve azt a pillanatot, amikor a nagyközönség a ChatGPT révén először szembesült az AI lehetőségeivel. A javaslat mögötti megfontolás, alapprobléma az volt, hogy a mesterséges intelligencia rendszerek egyre nagyobb számban terjednek el, és a korábbi modellekkel ellentétben már több célra is lehet használni őket. A ChatGPT és Copilot modellek az elmúlt években berobbantak a mindennapi használatba, az OpenAI bevételei 2024-ben várhatóan 1 milliárd dollárra nőnek majd. Amellett, hogy a prognózis rámutat az iparág jelentőségére és növekedési potenciáljára, a rendszerek fejlődése a sokoldalú felhasználásból fakadóan a kockázatoknak is szélesebb spektrumát ölelik fel. Ezeket a kockázatokat felmérni egyre nehezebb, ezért az Európai Unió a szabályozásán keresztül azonosítani, kategorizálni és monitorozni kívánja az MI rendszereket. Az uniós megfontolás mögötti alapvető cél továbbá, hogy a kockázatok azonosításával káresemény esetén elkülöníthetővé váljanak a fejlesztő-szolgáltató-végfelhasználó közötti felelősségi körök, amellyel az emberek alapvető jogainak potenciális sérelmét is elejét vennék.
A kormányok világszerte szabályrendszereket hoznak létre, hogy minimalizálják a mesterséges intelligenciával kapcsolatos vélt vagy valós kockázatokat. Az Egyesült Államok végrehajtó rendeletet adott ki a mesterséges intelligenciáról (közös fogalmak kidolgozásán az EU-USA Kereskedelmi és Technológiai Tanács is dolgozik), míg az Egyesült Királyság egy nem kötelező erejű nyilatkozatot fogadott el. Kína átfogóbb, de szabályozásában kevésbé szigorú, vállalkozásbarát AI-szabályozást vezetett be, amely elsősorban a technológiai fejlődést ösztönözné. Az Európai Unió mesterséges intelligenciáról szóló törvénye az első, amely tagállamokra nézve összehangolt szabályokat határozna meg az MI használatára vonatkozóan, de kockázatokat is hordoz magában, amelyeket végrehajtási jogi aktusokkal kell majd kezelnie az uniós intézményrendszernek.
Kockázati rendszerek
A mesterséges intelligencia rendszereket az AI Act kockázatok szerint sorolja be. Az elfogadhatatlan kockázati szint hatálya alá azok a mesterséges intelligencia rendszerek tartoznak, melyek manipulációra, társadalmi ellenőrzési gyakorlatokra épülnek: ilyenek lehetnek az érzelemkifejezést felismerő technológiák; prediktív rendészeti szoftverek; valós idejű távoli biometrikus azonosítást használó AI rendszerek. A magas kockázati kategóriába sorolták azokat, amelyek az emberek biztonságát, illetve alapvető jogait sérthetik. Különösen érzékeny területekként azonosították az oktatást, foglalkoztatást, a kritikus infrastruktúrát, a közszolgáltatásokat, bűnüldözést, határellenőrzést és igazságszolgáltatást. E területeken a rendszerek használatát egy közös európai adatbázisba szükséges majd bejelenteni a jövőben és a legszigorúbb követelmények vonatkoznak rájuk.
Az AI Act márciusban elfogadott szövege foglalkozik az általános célú mesterséges intelligenciával (General Purpose AI – GPAI), és további alapmodellekkel is, amelyek a 2021. évi bizottsági javaslatban még nem szerepeltek. A GPAI-rendszerek olyan általánosan alkalmazható funkciókat hivatottak ellátni, mint a kép- és beszédfelismerés, hang- és videó generálás, illetve mintafelismerés, ilyen például a ChatGPT is. Ezek azért tekinthetők általános célúnak, mert a feladatok széles körére alkalmazhatók. Az AI Act szerint a GPAI rendszerek akkor válnak kockázati modellekké, ha a működtetésükhöz használt teljesítmény meghaladja a 10 flopot. A jelenlegi modellek nem érik el ezt a küszöbértéket, de a következő generációs MI modellek - amelyek várhatóan 2024-ben már forgalomba kerülhetnek - meghaladják azt. A rendszerkockázatot jelentő GPAI-modellek szolgáltatóinak a jövőben modellértékeléseket kell végezniük, jelenteniük kell az incidenseket, biztonsági aspektusokkal kell bírniuk.
A korlátozott kockázatú kategóriába tartoznak az érzelemfelismerő rendszerek, biometrikus kategorizálási rendszerek, deepfake tartalmakat generáló rendszerek. A legtöbb AI rendszer azonban minimális kockázatúnak minősül és nem szabályozott. Olyan mesterséges intelligenciával rendelkező rendszerek tartoznak ide, amelyek nem tartoznak más kategóriákba, mint például a mesterséges intelligenciával rendelkező videojátékok vagy spamszűrők.
A mesterséges intelligencia rendszereket létrehozók és fejlesztők nagy erőfeszítéseket tettek annak érdekében, hogy a mesterséges intelligencia modellek válaszait az emberi értékekhez igazítsák annak érdekében, hogy elkerüljék a diszkriminációt és a káros tartalmak generálását. Van olyan nagyvállalat, amely az AI rendszerét (pl. a Google a Gemini AI-modelljét) úgy képezte ki, hogy a faji sokszínűséget a történelmi korrektséggel szemben előnyben részesítse, míg más vállalatok eltérő megkülönböztetési kritériumokat is gyakran alkalmaznak (pl. jövedelemdiszkrimináció, jólétnövelő/kizsákmányoló hatás a gazdasági szolgáltatások kontextusában). A GPAI fejlesztői úgy próbálják biztosítani az alapvető emberi jogok, valamint értékek tiszteletben tartását, hogy védőkorlátokat építenek a modellekbe, amelyek önmagukat ellenőrzik, hogy válaszaik megfelelnek-e az előírt kötelezettségeknek. A jövőben elfogadott végrehajtási aktusok vélhetően ezt is szabályozni fogják.
Az AI Act kritikái
Mostanra ugyan több tucat nagy-, illetve kis AI modell létezik és az AI-fejlesztők között élénk verseny folyik. Ugyanakkor nincs jele egyelőre annak, hogy szisztematikus monopol helyzetek alakulnának ki az informatikai szektor alágazataiban. Az EU jelenleg nem ad otthont nagy AI rendszereknek, az AI Act pedig – legalábbis az Európai Unióban - kiegyenlítheti a versenyfeltételeket. Európai székhelyű üzleti vállalkozások pl. a Siemens, az Airbus, a Renault, Deutsche Telekom, már 2023 júniusában nyílt levélben fejezte ki aggályait az AI Act kapcsán. A vállalatok szerint az AI Act szabályai veszélyeztethetik a versenyképességet: ha a potenciális kihívások margóján - felhasználásuktól függetlenül - az EU túlszabályozza az alapmodelleket, akkor a fejlesztő és bevezető vállalatok aránytalan megfelelési költségekkel és felelősségi kockázatokkal szembesülnek. Véleményük szerint ez akár az innováció gátjaként, illetve a vállalatok EU-n kívüli fejlesztéseihez is vezethet.
Az AI Act részben az önálló, nagyméretű mesterséges intelligencia modellek szabályozására összpontosít, ugyanakkor a decentralizált mesterséges intelligencia rendszerek gyors megjelenésével a rendszer kockázatokat nem lehet egyetlen modellre összpontosítva értékelni. A rendszer egészét kell vizsgálni, mivel a kockázatok megoszlanak a fejlesztők, a telepítők és a felhasználók között. Az AI Act-hez kapcsolódó végrehajtási aktusoknak ezért a kisebb modellekre is koncentrálniuk kell majd, mivel azzal, hogy ezek a rendszerek nem érik el a már említett számítási küszöbértéket, mentesülhetnek számos, a kockázati kategóriákban részletezett kötelezettség alól.
Az OECD többek között e kihívásokkal is számolva ajánlásokat fogalmaz meg az MI-t érintő nemzeti szakpolitikák és nemzetközi együttműködések kapcsán. A szervezet javasolja, hogy a kormányok hosszútávú K+F befektetéseket ösztönözzenek az MI relációjában és olyan agilis környezetet teremtsenek, amely lehetővé teszi az e szakaszból való tovább fejlődést. A fejlesztésekben álláspontjuk szerint hangsúlyos szerepet kell kapnia a társadalmi biztonságnak, valamint a technikai részletszabályok kidolgozásának. A nemzetközi együttműködések kapcsán kiemelik, hogy a fejlesztéseknek globális, konszenzus vezérelt technikai standardoknak kellene megfelelniük, amelyhez a kormányoknak ösztönözniük kellene egy nemzetközi összehasonlíthatóságot megkönnyítő indikátor kidolgozását.
Hosszú volt az út, még hosszabb jöhet
Az AI Act kidolgozása és elfogadása ugyan már három éve tart, de jelenlegi formájában egy új és hosszú szabályozási folyamat kezdete, mivel a Bizottságra és a felállítandó Mesterséges Intelligencia Irodára (AI Office) ruházza a feladatot, hogy végrehajtási jogszabályokat és iránymutatásokat fogadjon el a kihívások kezelése érdekében. Ezek közé tartozhat a MI rendszerekre vonatkozó kritériumok és jelentési kötelezettségek pontosítása.
Az európai Mesterséges Intelligencia Iroda létrehozásáról szóló határozat 2024 februárjában lépett hatályba. A megközelítőleg 100 főre tervezett testület célja a törvényben foglalt rendelkezések végrehajtását igyekszik majd előmozdítani, a független szakértők toborzása már megkezdődött. Az Iroda várhatóan a magyar soros elnökség első hónapjaiban állhat majd fel.
Szerző: Felde Bence, az EuroAtlantic Tanácsadó elemzője