Az év elején egy hongkongi pénzügyi dolgozót arra vettek rá, hogy utaljon 25 millió dollárt egy csalónak, aki az ő felettesének álcázta magát videóhíváson keresztül.
Ilyen és ehhez hasonló csalások egyre gyakrabban fognak előfordulni a jövőben, a szakértők szerint azonban már most is vannak gyakorlatok, amelyeket a vállalatok alkalmaznak, amíg a kiberbiztonsági terület felzárkózik a technológiához.
Kapcsolódó
A hongkongi esetben a brit Arup mérnöki cég volt az érintett a CNBC szerint, az ezzel kapcsolatos vizsgálatok azonban még most is folynak. Az ilyen jellegű csalási kísérletek a ChatGPT 2022-es indulása óta megszaporodtak. David Fairman, a Netskope kiberbiztonsági vállalat informatikai és biztonsági vezetője szerint az efféle szolgáltatások nyilvános elérhetősége csökkentette a belépési korlátot a kiberbűnözők számára.
Emellett pedig mivel a technológia folyamatosan fejlődik, így a csalások nem csak egyre gyakoribbak, de egyre kifinomultabbak is.
Az Arup a lapnak azt mondta, sok más vállalathoz hasonlóan az ő működésüket is rendszeresen van kitéve támadásoknak, ideértve a számlacsalást, az adathalász csalásokat, a WhatsApp hanghamisítást és a deepfake-et.
A hongkongi munkatárs állítólag egy videohíváson vett részt, amelyek a pénzügyi vezető mellett más munkatársaknak vélt személy is részt vett, akik arra kérték a munkavállalót, hogy utaljon nekik pénzt.
Azonban a megbeszélésen jelenlévők a valóságban digitális újrateremtett deepfake-ek voltak.
A vállalat megerősítése szerint az incidens során hamis hangokat és képeket használtak fel.
Kiberbiztonsági szakértők amiatt aggódnak, hogy a felsőbb vezetőikről készült deepfake tartalmakat, ideértve fotókat, videókat és hanganyagokat, más módon is fel lehet rosszindulatú célokra használni.
Kiemelték, hogy a generatív mesterséges intelligencia képes deepfake-et létrehozni digitális információk, például a közösségi médiában és más médiaplatformokon található nyilvánosan elérhető tartalmak alapján.
Ugyanakkor a szakértők szerint a vállalat megerősíthetik a védelmet az MI-alapú fenyegetésekkel szemben a személyzet képzésével, a kiberbiztonsági rendszerek tesztelésével, továbbá a kódszavak és a többlépcsős jóváhagyás megkövetelésével a tranzakciók esetében.
Nem kotnyeleskedhet bele a mesterséges intelligencia a bűnüldözésbe és az egészségügybe
Bár az Európai Parlament elsöprő többséggel fogadta el a mesterséges intelligenciáról szóló törvényt, az infokommunikációs szakjogász arra hívta fel az Economx figyelmét, hogy bizonyos, magas kockázatú AI-rendszerek esetében (például: egészségügy, bűnüldözés) a mesterséges intelligencia alkalmazását kategorikusan megtiltja a jogszabály.Ha többre kíváncsi, itt olvashat tovább→
Kövesse az Economx.hu-t!
Értesüljön időben a legfontosabb gazdasági és pénzügyi hírekről! Kövessen minket Facebookon, Instagramon vagy iratkozzon fel Google News és YouTube-csatornánkra!