Bartolits István, a Nemzeti Média- és Hírközlési Hatóság technológiaelemző főosztályának vezetője a napi.hu – nak elmondta: a mai tudásunk szerint a mesterséges intelligenciának fokozatai vannak.
Általában három nagy fokozatot szoktak megkülönböztetni:
- ANI – Artificial Narrow Intelligence
- AGI – Artificial General Intelligence
- ASI – Artificial Superintelligence
Jelenleg az ANI, a célorientált mesterséges intelligencia korszakának az elején vagyunk. Ezek az MI rendszerek egy adott feladat megoldására, egy adott célra készülnek, öntanulásra is képesek, de csak a meghatározott feladatnak megfelelő területen képesek erre. Tipikusan ilyen például egy képfelismerő rendszer, amely egyre pontosabban képes felismerni, hogy mit vagy miket lát a képen, de a tudása erre koncentrálódik, soha nem fog például beszédet írni vagy verseket elemezni. Ezeknek az MI rendszereknek az elsődleges feladata, hogy levegye az emberek válláról a monoton feladatokat.
Megjelentek például az ügyfélszolgálati rendszerekben, ahol sok esetben tipikus kérdésekre kell hasonló vagy azonos válaszokat megadni, de ha érkezik egy összetettebb kérdés, akkor azt élő személyhez irányítja a rendszer és közben bővíti a tudását a hallottak alapján. A célorientált ANI rendszereknek számtalan alkalmazási lehetősége van már most is.
Megjelentek az orvosi diagnosztikában, a közlekedési rendszerekben, a pénzügyi világban és a banki tevékenységben is, de már a távközlő hálózatokban is mesterséges intelligencia segít pl. a hálózatmenedzsmentben, a forgalom átszervezésében váratlan hiba esetén. Megjelentek az 5G mobil rendszerekben is, ahol a hálózati erőforrások optimális kiosztásában és forgalomvezérlésben lesz jelentős szerepük.
Ezektől az alkalmazásoktól olyan értelemben nem kell félnünk, hogy a fejünkre nőnek, vagy az ember ellen fordulnak. Ugyanakkor jogosan merülnek fel olyan gondolatok, hogy bizonyos alkalmazások már magas kockázatot jelentenek vagy éppenséggel nem összeférhetők az emberi jogokkal. Itt tehát nem az MI a veszélyes, hanem az a döntés, hogy olyan esetben használják az emberek, amikor nem volna szabad a döntést mesterséges intelligenciára bízni.
Az Európai Unió által 2021. április 21-én útjára indított rendelettervezet éppen erre alapozza a mesterséges intelligencia szabályozását, amikor négy kategóriába sorolta be az MI alkalmazásokat: minimális kockázatú, korlátozott kockázatú, magas kockázatú és elfogadhatatlan kockázatúakra. Ezek közül a magas kockázatú alkalmazásokra írt elő szigorú szabályokat, az elfogadhatatlan kockázatú alkalmazásokat pedig megtiltotta.
Ebbe a kategóriába tartoznak az olyan MI rendszerek, melyek veszélyeztetik az emberek biztonságát, megélhetését és jogait (emberi viselkedés manipulálása, kormányok általi társadalmi pontozás, tömeges biometriai azonosítás stb.).
A következő fokozat az AGI, az általános mesterséges intelligencia, szokták ezt Strong AI vagy Full AI néven is nevezni. Ennek a jellemzője, hogy képes az emberi tevékenységek döntő részét végrehajtani, tehát mondhatjuk, hogy teljes mértékben a társunk lehet, bár nyilván nem rendelkezik saját tudattal és érzelmekkel.
Nem indokoltak a félelmek
Még itt sem indokoltak a tudományos-fantasztikus filmekből jól ismert félelmek, azonban itt már felmerülhetnek olyan veszélyek, melyeket célszerű lesz időben kezelni. Ennek a szintnek a létrejöttének az időpontját nevezi Ray Kurzweil szingularitásnak és az időpontját a „The Singularity is near” című 2005- en megjelent könyvében 2045-re teszi. A könyv magyar címe: A szingularitás küszöbén.
Végezetül az MI legmagasabb szintje az ASI, a mesterséges szuperintelligencia, mely szinte minden fontos területen túltesz az emberi képességeken. Akkor már lehet, hogy lesz félelemre okunk, ha nem teszünk valamit annak érdekében, hogy ezek a rendszerek a rossz értelemben ne uralkodjanak el felettünk. Ez azonban nagyon távoli időszakban következik be, ha valóban erre halad a technológia
– hangsúlyozta Bartolits István.
A mesterséges intelligencia felelősségéről szóló irányelv (AI Liability Directive, ALD) felhatalmazná az embereket és a vállalatokat a kártérítési per indításának lehetőségével, amennyiben egy MI-rendszer által károkozás alanyává váltak.
Miképp vonhatóak felelősségre a szabályokat be nem tartó vállalatok?
Az AILD irányelv tervezetet az EU a más területeken már régóta ismert, szerződésen kívüli károkozásért való felelősség vállalásának a kiterjesztésére hozta létre, tehát ez, mint eszköz egyáltalán nem új jogi megoldás. Az újdonságot az jelenti – és ezért kellett lépni ebben a kérdésben – mert a jelenlegi jogrendszerek nem ismerik a mesterséges rendszerek jogalanyisággal való felruházását, ilyen esetekben általában az üzemeltetőre hárul a felelősség terhe.
Ez a helyzet nálunk is, a hatályos magyar szabályozás nem tekinti külön jogalanyisággal bíró entitásnak – így különösen jogi személynek – a mesterséges intelligenciákat. A jelenlegi helyzetben tehát a károkozásért való felelősség terhét valakinek át kell vállalnia. Mivel az Európai Bizottság érzékelte, hogy ez minden tagállamban probléma, ezért – hogy megelőzze az eltérő nemzeti jogalkotási lépéseket ebben e kérdésben – 2022. szeptember 28-án megjelentette a mesterséges intelligenciával kapcsolatos felelősségről szóló irányelv tervezetét.
Ez a tervezet bevezeti az MI szolgáltató és az MI felhasználó fogalmát, ahol az MI szolgáltató a rendszerfejlesztő cége, az MI felhasználó pedig az, aki a felügyelete alá tartozó MI rendszert használja. Az esetleges szerződésen kívüli károkozásért ez a két jogi személy perelhető.
Ezen kívül bevezeti a potenciális felperes fogalmát is, amely azon személyek körét foglalja magába, akik még nem nyújtottak be kártérítési igényt, de fontolóra vették annak a lehetőségét.
A felelősség kérdése
Az AIDL valóban a fejlesztőket és a felhasználókat tekinti a károkozás perelhető alanyainak, de a teljes folyamat csak peres úton bonyolítható le. A felelősségre vonás pontosan ugyanúgy történik, mint bármely más felelősségi perben. Más esetekben is előfordulhat, hogy a kártérítés behajthatatlan, de ennek is megvannak a maga jogkövetkezményei.
Nem csak az AILD irányelv tervezete, hanem a mesterséges intelligencia rendelet tervezete is tartalmaz teljesítendő kötelességeket és szankciókat. Ezek Európán belül egységesen tudnak majd működni, erre az EU létre kívánja hozni a Mesterséges Intelligenciával Foglalkozó Európai Testületet, melynek tagjai a nemzeti felügyelő hatóságok, elnöke pedig az Európai Bizottság lesz. Az illetékes nemzeti hatóságokat az egyes tagországoknak kell létrehozniuk. Mivel a szabályozás egységes lesz, így az EU-n belüli jogsértések kezelése egyértelművé válik, az EU-n kívüli fejlesztések esetében pedig az üzemeltető (az AILD terminológiájában a felhasználó) lesz szankcionálható.
A magas kockázatú területeken már indokoltak a szigorú szabályok, az elfogadhatatlan kockázatú területeken – amik már veszélyeztethetik az emberek biztonságát, megélhetését és jogait – pedig a tiltás eszközével él a tervezet.
A tiltás eszköze
Mit értsünk pontosan ez alatt? Az EU 2021. április 21-én útjára bocsátott rendelettervezete részletesen megfogalmazza, hogy mit kell betartani a magas kockázatú MI rendszerek esetében. Magas kockázatúnak tekinti a tervezet a kritikus infrastruktúrák irányításában és működtetésében, az oktatásban és szakképzésben, a foglalkoztatásban, a munkavállalók irányításában és az önfoglalkoztatáshoz való hozzáférésben, az alapvető magánszolgáltatásokhoz és közszolgáltatásokhoz való hozzáférésben és ezek igénybevételében, a bűnüldözésben, a migráció, menekültügy és határellenőrzés tevékenységében, az igazságszolgáltatásban és a demokratikus folyamatokban, a természetes személyek távoli biometrikus azonosításában felhasznált MI rendszereket.
Ezen kívül a rendelet megadja a II. mellékletében azokat az uniós harmonizált jogszabályokat, melyek alá tartozó termék biztonsági alkatrészeként vagy egészében MI rendszert használ. Ilyen területek pl. a játékok biztonsága, a vízi járművek, a felvonók és biztonsági berendezéseik, a kötélpálya- létesítmények, az in vitro diagnosztikai orvostechnikai eszközök, valamint a légiközlekedés, a vasút, a tengeri és közúti teherszállítás, a mezőgazdasági gépek esetében alkalmazandó harmonizációs jogszabályok területe.
Ezekre a rendelettervezet szigorú szabályokat ír elő, mint például az egyértelmű tájékoztatás, a magas megbízhatóság, a pontos dokumentáció, a megfelelő emberi felügyelet. Az elfogadhatatlan kockázatú területeken a teljes tiltást írja elő a tervezet, tehát ezeken a területeken tilos az MI használata. Ezeket a területeket a tervezet pontosan körülírva meghatározza, itt csak jelzésértékű felsorolást tudunk megtenni.
Ilyenek a szubliminális (tudatküszöb alatti) technikát alkalmazó rendszereket, a személyek életkor, testi vagy szellemi fogyatékosság miatt fennálló sebezhetőségét kihasználó rendszereket, a hatóság által természetes személyek megbízhatóságának értékelésére, vagy osztályozására használt olyan rendszereket, melyek eredményeként hátrányos vagy kedvezőtlen bánásmódban részesülhetnek,
továbbá a valós idejű tömeges biometriai azonosítást végző rendszereket, kivéve néhány bűnüldözési, eltűnt személyek keresési, vagy terrorcselekmény elhárítási célból vannak működtetve. A tiltott kategóriába esik a tervezet szerint minden olyan alkalmazás, amely a személyek manipulálására vagy életkorának, testi vagy szellemi fogyatékosságból eredő sebezhetőségének kihasználását célozza. Ugyancsak tiltott a személyek megbízhatóságának értékelésére vagy osztályozására irányuló alkalmazás, ha ez hátrányos vagy kedvezőtlen bánásmódot támogat. Végül tilalom alá esne a valós idejű, nyilvánosság számára hozzáférhető helyeken történő tömeges biometrikus azonosítás, ami alól engedélyhez kötötten kivételt képezhet az eltűnt személyek vagy különösen veszélyes bűnözők alkalmi keresése.
Ezek lesznek a tagállamok feladatai
Az első és legfontosabb dolog, hogy a rendeletben foglalt feladatok elvégzéséhez nemzeti illetékes hatóságokat kell létrehozni vagy kijelölni. Ezeket úgy kell megszervezni, hogy objektív és pártatlan legyen a működésük. A kijelölt nemzeti illetékes hatóságok közül ki kell jelölni egy nemzeti felügyelő hatóságot, aki bejelentő hatóságként és piacfelügyeleti hatóságként jár el.
A nemzeti illetékes hatóságoknak elegendő létszámú állandó személyzettel kell rendelkezniük, amelynek kompetenciája és szakértelme a mesterséges intelligencia-technológiákra, az adatokra és az adatfeldolgozásra, az alapvető jogokra, az egészségügyi és biztonsági kockázatokra, valamint a meglévő szabványok és jogi követelmények alapos ismeretére is kiterjed.
A nemzeti illetékes hatóságoknak az összes, a rendeletben meghatározott feladatot el kell végezniük az adatbázisok felépítésétől kezdve a dokumentációk begyűjtésén és elemzésén keresztül a bejelentések fogadásáig és a piaci ellenőrzésekig. Emellett tartaniuk kell a kapcsolatot az EU testületével és képviseltetniük kell magukat a Mesterséges Intelligenciával Foglalkozó Európai Testületben és elvégezni az onnan érkező feladatokat.
Összességében ez elég jelentős tevékenységet fog adni a tagországoknak, különösen az MI rendszerek széleskörű elterjedése után. Ezt a munkát még nehezíti az, ha a nemzeti felügyelő hatóság olyan kihágást talál, ami ütközik a rendelet előírásaival, mert ekkor végig kell vezetnie az eljárás egyes lépéseit és komoly szakértői munkát is jelent az MI rendszerek vizsgálata ezekben az esetekben.