A gépi tanulási előítélet olyan jelenség, amely akkor jelentkezik, amikor egy algoritmus a gépi tanulási folyamat hibás feltételezései miatt szisztematikusan előítéletes eredményeket produkál.
Például, egy munkaügyi felvételi eljárás során előszűrésre alkalmazott AI könnyen lehet, hogy a férfiakkal, vagy a nőkkel szemben előítéletes. Ez megtörténhet abban az esetben, ha a tanításra felhasznált adatok nem voltak megfelelőek.
A DLA Piper Hungary közelmúltban végzett felmérése szerint a megkérdezettek 36 százaléka bizonytalan abban a tekintetben, hogy az AI bevezetése az esetükben megfelel-e a jelenlegi jogszabályi előírásoknak, valamint 39 százalékuk szerint az is kérdéses, milyen irányú fejlődés várható az AI szabályozási környezetének terén.
2025-re lesz meg a szabályozás
Számos olyan hatályos jogszabály van, amelyeknek az AI-rendszerek fejlesztőinek és felhasználóinak jelenleg is meg kell felelniük.
Ezek közül az egyik legfontosabb Európában az általános adatvédelmi rendelet (GDPR). Ez részletes követelményeket rögzít a vállalkozások és szervezetek részére a személyes adatok gyűjtése, tárolása és kezelése tekintetében. Ezek a szabályok az EU területén személyes adatokat kezelő európai uniós székhelyű szervezetekre, továbbá azokra az EU-n kívüli szervezetekre vonatkoznak, amelyek európai uniós lakosok személyes adatait kezelik.
Az átfogó, mesterséges intelligencia szabályzás harmonizálását célzó európai uniós rendelet (EU AI Act) a várakozások szerint idén kerül elfogadásra, a hatályba lépése pedig 2025 végére várható. Ez világszerte egy úttörő szabályozás lesz, amely kifejezetten a mesterséges intelligencia fejlesztését, használatát célozza.
Szakítás és szüneteltetés
A felmérés szerint a döntéshozók közel fele (43 százalék) szakított már meg, vagy szüneteltetett AI-implementációs folyamatot, amelynek fő okaként a legtöbb esetben az adatvédelmi problémákat vagy a szabályozási keretrendszer hiányosságait jelölték meg.
Tehát, a megkérdezettek 40 százaléka kényszerült az AI-projekt leállítására vagy szüneteltetésére, a fennakadások közel fele köthető valamilyen adatvédelmi problémához.
A DLA Piper Hungary szakértői hangsúlyozták: amennyiben az AI eszközök által kezelt adatok között személyes adatok is vannak, az adatvédelmi jogszabályok automatikusan alkalmazandók lesznek. Gyakran merülhet fel probléma azokkal az AI rendszerekkel kapcsolatosan, amelyeket profilalkotásra vagy automatizált döntéshozatalra használnak, ugyanis ezekre a tevékenységekre a GDPR szigorú rendelkezéseket ír elő.
Emellett, ha az AI alkalmazása során bármely más módon természetes személyek adatait kezelik, úgy meg kell felelni a GDPR valamennyi egyéb rendelkezésének is. Például, megfelelő jogalapra van szükség az adatkezeléshez és a vállalatoknak biztosítaniuk kell az adatkezelés átláthatóságát, azaz, előzetes tájékoztatást kell nyújtaniuk a felhasználónak az adatkezelés céljáról és pontos körülményeiről.
Már a magyar adatvédelmi hatóság gyakorlatában is találunk olyan esetet, amikor az adatkezelő az AI rendszer használata során megsértette ezeket az alapvető szabályokat, ezért a hatóság bírságot alkalmazott.
Vigyázat, technológiai eszközökkel, emberi beavatkozás nélkül?
A GDPR alapján profilalkotás „a személyes adatok automatizált kezelésének bármely olyan formája, amelynek során a személyes adatokat valamely természetes személyhez fűződő bizonyos személyes jellemzők értékelésére, különösen a munkahelyi teljesítményhez, gazdasági helyzethez, egészségi állapothoz, személyes preferenciákhoz, érdeklődéshez, megbízhatósághoz, viselkedéshez, tartózkodási helyhez vagy mozgáshoz kapcsolódó jellemzők elemzésére vagy előrejelzésére használják”.
Az automatizált döntéshozatal pedig az a képesség, hogy technológiai eszközök segítségével, emberi beavatkozás nélkül hoznak döntéseket. A profilalkotás és az automatizált döntéshozatal nem mindig fedi egymást, például gyorshajtási bírság kiszabása sebességmérő kamerákból származó bizonyítékok alapján automatizált döntéshozatali folyamatnak minősül.
Azonban profilalkotáson alapuló döntéssé válik, ha az idők folyamán figyelemmel kísérik a természetes személy vezetési szokásait, és például a kiszabott bírság összege olyan más tényezőkre is kiterjedő értékelés eredménye, mint például, hogy a gyorshajtás ismétlődő szabálysértés-e, vagy, hogy a vezető a közelmúltban elkövetett-e más közlekedési szabálysértést – figyelmeztettek a szakértők.
Ha az AI is a szolgáltatás részét képezi
Ha egy IT szolgáltatás igénybevétele során az AI is a szolgáltatás részét képezi, tipikusan felmerülő kérdések lehetnek a szolgáltató és az igénybe vevő között a következőek.
Milyenek legyenek a felelősségkorlátozó rendelkezések (a kockázatra tekintettel magasabb felelősségi határokkal), az AI-megoldás által okozott károk megtérítésére vonatkozó rendelkezések?
De ilyenek lehetnek a szavatossági szabályok, szellemi alkotásokkal kapcsolatos kérdések, történetesen kié az AI rendszer használatával fejlesztett szellemi alkotás? És végezetül, mi történik az AI rendszer használata során kezelt adatokkal? Ezekre is pontos válaszokat kell adni.