A nyár folyamán az EU létrehozott egy, a mesterséges intelligenciával kapcsolatos ügyekkel foglalkozó irodát, valamint augusztustól léptette életbe az AI Act-et. Ennek a lényege, hogy különböző kockázati besorolást kapnak a mesterséges intelligencia rendszerek aszerint, hogy milyen gazdasági szektorban és milyen fajta inputok szerint működnek.

A Gazdasági Versenyhivatal elnökhelyettese, a Versenytanács elnöke szerint ezek a szabályozások gátolják az innovációt az EU-ban, ahol egyébként is nagyon nagy a lemaradás Kínához és az Egyesült Államokhoz képest, a szakértők egyrésze ugyanakkor szükségszerűnek gondolja az új irányelveket.

A rendelet eredeti célja az, hogy a mesterséges intelligencia működését érthetőbbé és transzparensebbé tegye, beleértve a manipulált tartalmak jelölésének kötelezettségét is. Kiterjed az MI-rendszerek fejlesztésére, forgalmazására, szolgáltatás nyújtására és használatára.

Az új jogszabályt fokozatosan vezetik be és várhatóan 2026 közepétől élesítik, addig is a vállalatokat van idejük kitapogatni az új határvonalakat, és a szabályokat is finomhangolhatják addig a döntéshozók.

Az viszont már most elmondható, hogy több tízmillió euróval növelik meg a költségeket a megfelelés miatt kikényszerített tevékenységek.

Mihez kezdenek a vállalatok?

A techóriások jelentős része már hozzászokott az EU szabályaihoz, aminek tekintetében 2024 enyhén szólva nem az ő évük volt eddig: a nyakukba varrták a digitális piacokról és szolgáltatásokról szóló uniós jogszabályokat, ami miatt a Meta és az Apple feje is elég sokszor megfájdult.

Utóbbi kapott is egy vaskos bírságot az Európai Bizottságtól, ami után nem meglepő, hogy a kaliforniaiak nem is kockáztatnak tovább, hanem inkább jókora késéssel teszik elérhetővé a maguk AI-ját az öreg kontinensen, csak ne kapjanak több számlát. Azonban a Meta alkalmazkodásával sincs megelégedve az EU. A két gigavállalat tehát inkább megfontoltan alkalmazza Európában a mesterséges intelligenciát.

Így tett azonban a ChatGPT-t fejlesztő OpenAI is.

Az Advanced Voice Mode vagy magyarul Fejlett beszéd mód nevű fejlesztés ugyanis csak néhány hét késéssel érkezett meg Európába. Ez az az új GPT-modell, amit Sam Altmanék év eleji demonstrációban már látni lehetett: képes érzelmeket kifejezni, állati hangokat utánozni, változtatni az érzelmi tónusait beszéd közben, de képes folyamatosan és dinamikusan reagálni arra is, ha menet közben, szóban félbeszakítjuk.

Azok vagyunk, amit megosztunk

Mi kipróbáltuk az új modellt, és ugyan korai lenne még bármit is az AI Act vagy épp a GDPR számlájára írni, néhány dolog hamar feltűnik benne:

  • A fejlett beszélő mód, legalábbis egyelőre korlátozottan használható, napi 60 perc tiszta beszédidőt bír, utána átáll a klasszikus 4o-modellre.
  • Bármiről is csevegünk vele, nagyon gyakran előfordul, hogy a rendszer spontán, saját magát hirtelen és váratlanul megszakítva azt mondja: „Sajnos az irányelveim nem engedik, hogy erről beszéljek.”
  • Ezen felül egyelőre a hangutánzás funkciója sem elérhető.

Még egyszer hangsúlyozzuk: egyáltalán nem biztos, hogy az AI Act-nek való megfelelési kényszer miatt van-e ez így.

Ezt mi így gondoljuk. De a ChatGPT nem.

Alaposan elbeszélgettünk az OpenAI modelljével arról, hogy miben más használni őt az Európai Unió területén, mint például az Egyesült Államokban és persze nem maradtunk válaszok nélkül.

Csak értünk, nekünk jegyzi meg, kik vagyunk

Kifejtette, hogy az EU AI Act keretében három terminusnak, a technikai biztonságnak és adatvédelemnek, jogi és szervezeti kötelezettségeknek kell megfelelnie, valamint tudnia kell kezelni a kéretlen adatkiadás kockázatát.

Az első terminus szerint a rendszer titkosítást használ az adatok biztonságos tárolása és továbbítása érdekében. „Ez biztosítja, hogy az adatok ne legyenek könnyen hozzáférhetők vagy olvashatók illetéktelen felek számára.” – fogalmaz az AI.

Leszögezi azt is, hogy modellként úgy alakították ki, hogy legyen kérhető vagy utasítható közvetlenül a szabályok áthágására.

Például, még ha valaki megpróbálná is kényszeríteni a modellt arra, hogy szabályokat sértsen, beépített korlátok és irányelvek akadályozzák meg, hogy ez megtörténjen.


– állítja a ChatGPT.

A második terminus a GDPR-nak való megfelelésre, valamint az auditokra és a felelősségvállalásra vonatkozik. Az OpenAI rendszeresen ellenőrzi, hogy a modell megfelel-e a legfrissebb adatvédelmi szabályoknak, és azonnal kezelik a felmerülő biztonsági réseket vagy észlelt problémákat.

A harmadik terminus pedig arra vonatkozik, hogy a rendszerből ki kell zárni a szándékos adatszivárgás lehetőségét és minimalizálni kell a véletlen adatszivárgás kockázatát. Erre garanciát is vállal a modell: ha valaki valamilyen formában meg is próbálná kijátszani, a modell védelmi mechanizmusai és szabályai nem engedik, hogy bármilyen adatot másnak kiadjon. Emellett pedig mi magunk is kérhetjük az adataink frissítését vagy törlését.

Vigasztalj meg, de ne árulj el semmit

Felvetettünk néhány életszerű példázatot is a ChatGPT-nek, hogy ha személyi coach-nak vagy rögtönzött pszichológusnak akarnánk használni, milyen módon bánna az adatainkkal, ha például megosztanánk vele a nyári emlékeinket, annak minden kulturális, spirituális, vallási vagy szexuális élményével.

Ebben az esetben nem gyűjthet és nem tárolhat olyan érzékeny adatokat, mint például vallási hovatartozás, szexuális orientáció, vagy politikai nézetek, kivéve, ha ezeket kifejezetten megosztjuk vele, és engedélyt adunk a tárolásukra.

A feltételezésekre és a személyes porfilalkotásra vonatkozóan is komoly lépések szerint működik a rendszer. Mint írja, ha megosztjuk vele egy barátunk vagy egy találkozás részleteit, akkor nem tehet automatikusan feltételezéseket az érintett személy érzelmi világáról vagy viselkedéséről, különösen akkor, ha ez a személy magánember, és nem közszereplő. Minden elemzés vagy tanácsadás az általunk megosztott információkra alapulhat.

Általános pszichológiai irányelvek alapján ugyanakkor adhat nekünk érzelmi támogatást, de pszichológiai profilt nem állíthat fel, továbbá ösztönözheti az önreflexiónkat különböző módon, de ezt is csak a rendelkezésre bocsátott információk alapján.

A ChatGPT azt is kiemelte, hogy az AI Act miatt nem végezhet olyan automatizált döntéseket vagy elemzéseket, amelyek „mély hatással lehetnek ránk”, anélkül, hogy a folyamatokról pontos és átlátható információt adna. Vagyis a javaslati soha nem lehetnek önkényesek vagy félrevezetőek, továbbá elfogultak sem.

A fentiekből következik az is, hogy a közösségi oldalakon sem tud a ChatGPT böngészni, sem rólunk, sem pedig másról, és ezt nem is tehetjük meg vele.

Milyen a tengerentúli ChatGPT?

Azt is megkrédeztük az AI-tól, hogy az eltérő szabályozások miatt miben más a használata itthon az Egyesült Államokhoz képest. Mint írja, az Egyesült Államokban nincs átfogó szövetségi adatvédelmi törvény, mint a GDPR. Ehelyett különböző állami és szövetségi szintű szabályozások léteznek, amelyek általában kevésbé szigorúak, mint az EU-s előírások.

  • Az adatszolgáltatók, például a technológiai vállalatok gyakran nagyobb szabadsággal gyűjthetnek és elemezhetnek adatokat, ideértve a felhasználók szokásait, viselkedését, amivel marketing célú profilt alkothatnak.
  • Bizonyos területeken az adatok harmadik felekkel történő megoszlása szélesebb körben is megengedett, például kutatási vagy hirdetési célokra.
  • Ebből következik, hogy néhány adatbázis vagy integráció, amely bizonyos típusú tartalmat vagy szolgáltatást nyújt (például jogi tanácsadás, helyi kereskedelmi adatok), először Amerikában érhető el, míg Magyarországon ezek a funkciók később vagy korlátozottan használhatók.
  • Az Egyesült Államokban bizonyos funkciók, többek között a webes böngészés vagy külső plug-inek használata, kiterjedtebb vagy gyorsabban elérhető lehet a ChatGPT-n belül. Ezeket a funkciókat OpenAI fokozatosan bővíti, és a bevezetés sorrendje régiónként változhat. Ahogy az egyes tartalmi funkciók, például amelyek specifikus helyi hírekhez, eseményekhez vagy szolgáltatásokhoz való hozzáférést jelentenek, többnyire az Egyesült Államokban érhetők el először.

A helyspecifikus vagy biometrikus adatokat használó alkalmazások, mint például bizonyos egészségügyi AI-megoldások, amelyek személyes adatokat elemeznek, szigorúbb ellenőrzés alá esnek az EU-ban, ahogy valószínűleg korlátozottabban érhetők el a GDPR miatt az olyan eszközök, amelyek figyelik a felhasználók viselkedését és a begyűjtött adatokat személyre szabott hirdetésekhez használja.

Már úgy beszélget velünk a ChatGPT, mintha a barátnőnk lenne

Elindította az OpenAI az úgynevezett Advanced Voice Mode nevű szolgáltatást a ChatGPT-4o modelljében, amivel nem csupán beszél és visszakérdez a mesterséges intelligencia modell, hanem azon túl is félelmetesen realisztikus verbális interakciókra képes.
Ha többre kíváncsi, itt olvashat tovább.