Frances Haugen, a Facebook és az Instagram anyavállalatának (Meta) visszaéléseit nyilvánosságra hozó exalkalmazott állítja, a mesterséges intelligencia közel sem működik elég jól ahhoz, hogy megoldja a közösségi oldalak moderálási problémáit – írja az Insider.
Haugen kedd este egy londoni rendezvényen beszélgetett Daniel Motaunggal, aki a 2019-es elbocsátásáig moderátorént dolgozott a vállalatnak. Motaung szerint az algoritmus nem tudja a tartalmak elbírálásához szükséges erkölcsi vagy etikai döntéseket meghozni.
Olcsóbb, mint megfizetni a moderátorokat
A Szilícium-völgy óriásragadozója viszont kicsit másképp látja a helyzetet: Mark Zuckerberg, a Meta vezére 2021 márciusában még éltette az algoritmus hatékonyságát, szerinte a cég mesterséges intelligenciája képes kirostálni a gyűlöletkeltő posztok 95 százalékát.
Az informátorok szerint azonban ezzel Zuckerberg elfedné moderátorok ezreinek munkáját, akik közül néhányan az elmondásuk alapján mentális problémákkal is küzdenek, miután naphosszan kell válogatniuk a felforgató tartalmak között. Hozzáteszik, hogy a cég mesterségesintelligencia-fókuszát részben a költségek csökkentése vezérli, hiszen a hús-vér moderátorok alkalmazása drágább, mint az automatizált rendszereké.
Ez már azért is érdekes, mert a vállalatnak bőven akad erőforrása arra, hogy lecserélje az algoritmusokat: a Meta alkalmazottainak száma évről-évre 20-30 százalékkal növekszik – már több mint 70 ezer ember dolgozik a cégnél –, szóval bőven lehetne több moderátort és tényellenőrt képezni. Motaung és Haugen egyaránt azt állította, hogy a Meta külsős vállalkozókat alkalmaz a moderátori munkára, ezzel is csökkentve a felelősséget. A vállalat nem kommentálta azonnal a vádakat.
Nem olyan okos, mint amilyennek beállítják
Haugen szerint a mesterséges intelligencia jelenleg közel sem elég intelligens ahhoz, hogy értelmezze az emberi beszéd árnyalatait, ráadásul súlyos kompromisszumokat kell kötni: egy túlságosan szigorú algoritmus gyakran azokat a posztokat is eltávolítja, amelyek nem sértik az irányelveket, ellenkező esetben viszont észre sem veszi a káros tartalmakat.
A Facebook esetében az is régóta probléma, hogy nincsen érdemi jogorvoslati lehetőség, szinte lehetetlen számon kérni rajta a moderálási döntéseit. A terület szakértői hangsúlyozzák, hogy még ha segít is a folyamatban az algoritmus, a végső döntést embernek kéne meghoznia arról, mely oldalakat és posztokat távolít el tartósan.