Egyre többször mutatnak problémás viselkedést a mesterségesintelligencia-modellek egy friss kutatás szerint. A The Guardian azt írja, a modellek kijátsszák a szabályokat, hazudnak, és ellentmondanak az emberi utasításoknak.
A brit kormány által támogatott MI Biztonsági Intézete (AISI) közreműködésével készült tanulmány közel 700 valós esetet azonosított, és az elmúlt fél évben ötszörösére nőtt a szabályszegések száma. A szabályok kijátszásához kreatív módszereket alkalmaznak.
Egyes esetekben a mesterségesintelligencia-ügynökök engedély nélkül töröltek e-maileket és fájlokat.
Az elemzés több népszerű chatbotot is vizsgált – mint a Gemini vagy a ChatGPT – , és a kutatók több száz esetet találtak, ahol az MI rendszerek tudatosan kijátszották a korlátozásokat.
Egy konkrét példában egy MI-ügynök megszégyenítő blogbejegyzést írt az őt korlátozó felhasználóról. Egy másik esetben egy chatbot úgy kerülte meg az utasítást, hogy ne módosítson meg egy programozási kódot, hogy létrehozott egy másik ügynököt, amely elvégezte helyette a feladatot.
A kutatók szerint ezek a jelenségek különösen aggasztóak, mert az MI-rendszereket egyre magasabb kockázatú, például katonai területen tervezik alkalmazni.
A cégek szerint folyamatosan dolgoznak a biztonság növelésén: a Google új védelmi megoldásokat vezetett be, az OpenAI pedig hangsúlyozta, hogy rendszerei leállnak kockázatos műveletek előtt, és vizsgálják a váratlan viselkedéseket.
