A kutatások arra mutatnak rá, hogy káros feladatok elvégzésére lehet rávenni a chatbotokat.
A brit Nemzeti Kiberbiztonsági Központ (NCSC) egy szerdán megjelent blogbejegyzésben azt írta, hogy a szakértők még nem foglalkoztak az úgynevezett nagy nyelvi modellekhez (LLM) – kapcsolódó potenciális biztonsági problémákkal.
Az ezzel működő eszközöket már a kezdetekben is használták chatbotokként, melyek egyesek szerint az ügyfélszolgálati és a telefon értékesítési munkakört is felváltják.
A Kiberbiztonsági Központ szerint ez kockázatokat rejthet magában, főként ha az ilyen modelleket más szervezetek üzleti folyamataiba illesztik be.
A kutatók többször is találtak módot arra, hogy becsapják a chatbotokat, illetve hogy megkerüljék saját védelmi rendszerüket – írja a Reuters.
Például egy bank által telepített mesterséges intelligenciával működő chatbotot rávehetnek egy jogosulatlan tranzakcióra, ha egy hacker ezt jól kivitelezi.
A szakértők azt mondják, óvatosnak kell lenniük az LLM-eket használó szolgáltatásoknak, ugyanúgy, mintha egy próbaverzióban lévő terméket vagy ködkönyvtárat használnak.
A hatóságok világszerte küzdenek az LLM alapú mesterséges intelligenciák térhódításával, mint a ChatGPT, amelyeket a vállalkozások a szolgáltatások széles körébe, többek között az értékesítésbe és az ügyfélszolgálatba építenek be.
A mesterséges intelligencia megbízhatósága szintén a figyelem középpontjában van, az amerikai és kanadai hatóságok szerint a hackerek is elkezdték elsajátítani a technológiát.
Mennyit fog érni a mesterséges intelligencia a jövőben?
Nagy kérdések, lehet-e még növekedés az AI-részvényekben, mennyit fog érni a mesterséges intelligencia a jövőben? Hiszen irtózatos elvárások vannak az AI megjelenése miatt, többszáz százalékos emelkedést is láthattunk idén – mondta a Napi.hu-nak az SPB Befektetési Zrt. privátbankára, Láng András.Kövesse az Economx.hu-t!
Értesüljön időben a legfontosabb gazdasági és pénzügyi hírekről! Kövessen minket Facebookon, Instagramon vagy iratkozzon fel Google News és YouTube-csatornánkra!