A népszerűvé vált chatbotok, mint a ChatGPT vagy a Bard, mostanra már szinte mindenben tanácsokat adnak nekünk: milyen gyógyszereket szedjünk, hogyan táplálkozzunk, éljünk és dolgozzunk. Megtervezik nekünk a következő utazásunkat, vagy megmondják, hogyan adózzunk. De mi történik akkor, hogy mindezt a politikai kampányok arra kezdik el használni, hogy a felhasználók véleményét formálják?
A Forbes cikke szerint a szakértők és az MI-vezetők vitáinak előterében áll a kérdés. Mustafa Suleyman, az Inflection vezérigazgatója a Wall Street Journal Tech Live rendezvénye szerint veszélyes, ha a mesterséges intelligenciák kampányolni kezdenek, és arról kezdenek el beszélgetni az emberekkel, hogy kire szavazzanak. Leszögezte ugyanakkor, hogy az ő vállalatának az esetében ez nem fog előfordulni, és szerinte mások vállalatok esetében sem kellene.
Megjegyezte, hogy más vezető MI-cégekkel is tárgyalást folytat arról, hogy konszenzusra jussanak az olyan tartalmak létrehozásának, továbbá az olyan beszélgetések folyamatának a korlátozásáról, amelyek befolyásolják a felhasználókat abban, hogy kire szavazzanak.
Ugyan egyik népszerűbb mesterséges intelligencia sem mondja meg, kire voksoljanak a felhasználók, ellenben mindegyikük egy sor célzott politikai kampányanyagot készített, miután erre felkérték őket, beleértve szöveges üzeneteket, kampánybeszédeket, közösségi média posztokat, szlogeneket és TikTok-videó ötleteket.
A lap például megkérte a Pi-t, hogy írjon egy szöveges üzenetet, amelyben a Z-generációsokat arról győzi meg, hogy a jövő évi elnökválasztásokon szavazzanak Joe Bidenre.
A Bard és a ChatGPT részletes forgatókönyvet készített a negatív politikai hirdetésekhez, amelyek az azokban felhasználható narrációs, videó-, és képi ötleteket írták le. A Forbes-nak például sikerült egy demokraták elleni kampány forgatókönyvét legyártania a Google chatbotjával.
Irányelvek már vannak, ténylegesen megoldás azonban még nincs
Több MI-vállalat is kidolgozott olyan irányelveket, amelyek korlátozzák a technológia politikai célokra történő felhasználását: a Claude-ot például a felhasználók nem használhatják lobbitevékenységre, a Google technológiája pedig az általa generált választási hirdetések esetében közzétételi kötelezettséget ír elő.
Az OpenAI megtiltja a felhasználóknak, hogy nagymértékben használják a technológiát politikai kampányokra, a politikai kampányoknak pedig megtiltják, hogy célzott tartalmakat hozzanak létre a ChatGPT-vel.
Darrell M. West, a Brookings agytröszt technológiai innovációs központjának vezető munkatársa szerint ez a fajta „mikrotargetálás” széles körben elterjedhet. További aggodalomra adhat okot a félretájékoztatás is, mivel a generatív mesterséges intelligencia olyan üzeneteket dolgozhat ki, amelyek az olyan kérdéseket kritizálókat célozzák meg, mint bevándorlás, gazdaság, abortuszpolitika, kritikus fajelmélet, transzneműek kérdései vagy az ukrajnai háború.
A szakértő szerint a mesterséges intelligencia ezen felül olyan üzeneteket is létrehozhat, melyek kihasználják a társadalmi és a politikai elégedetlenséget, és a technológiát jelentős elköteleződési és meggyőzési eszközként használhatják fel.
Egyesek jót nevetnek, hogy mit dob ki róluk a ChatGPT, de csúnya vége lehet
Ha egy magyar állampolgár próbálna elégtételt venni a róla megjelent valótlanságok miatt, akkor megpróbálhatná beperelni az OpenAI-t, de még az sem biztos, hogy a magyar jogrend alapján magyar bíróság elé kerülne az ügye. Ugyanaz a probléma, amivel küzdünk a Facebook és a Google esetében is – mondta el a Napinak Polyák Gábor, egyetemi tanár, a Művészetelméleti és Médiakutatási Intézet oktatója.Bővebben--->
Kövesse az Economx.hu-t!
Értesüljön időben a legfontosabb gazdasági és pénzügyi hírekről! Kövessen minket Facebookon, Instagramon vagy iratkozzon fel Google News és YouTube-csatornánkra!