A massachusettsi Modulate által fejlesztett ToxMod nevű program egyelőre még csak tesztüzemben fut, de máris nagy az érdeklődés iránta.
A fejlesztők ígérete szerint a ToxMod képes különbséget tenni a hangszínek között, figyelembe veszi, hogy milyen érzelmi töltete lehet az elhangzottaknak, és arra is ügyel, hogy ez milyen reakciót vált ki a beszélgetőtársból. A program emellett kontextusba is helyezi az elhangzottakat, és mindezek alapján dönt arról, hogy jelentse-e az esetet a humán moderátoroknak, akik felülvizsgálhatják a mesterséges intelligencia döntését.
Millió órányi beszélgetés, milliónyi probléma
A moderátorprogramot jelenleg több népszerű játéknál is tesztelik, a rendszer iránt pedig a League of Legends-t fejlesztő Riot Games is érdeklődést mutat, ők a saját rendszerükbe akarják beilleszteni a ToxMod fejlesztéseit. A játékkal havonta körülbelül 150 millióan játszanak, a moderációhoz több millió vagy milliárd órányi beszélgetést kellene ellenőrizni. Carter Huffman, a Modulate társalapítója szerint a programjuk ezt a beszélgetéstömeget képes kezelhető szintűre szűkíteni, és ki tudja szűrni a valóban problémás eseteket.
Problémás esetek márpedig vannak: az Anti-Defamation League (ADL) nemzetközi antiszemitizmus elleni polgárjogi szervezet szerint tavaly öt felnőtt játékos közül egy találkozott fehér felsőbbrendűséget hirdető üzenetekkel online játékostársaitól, míg a 10-17 évesek 15 százaléka szembesült hasonlóval.
Fejlődő programok, fejlődő gyűlöletbeszéd
A ToxMod először kiszűri a potenciálisan káros tartalmakat, majd finomabb eszközökhöz nyúl, például nem tekinti gyűlöletbeszédnek és nem is jelenti azt, ha valaki egy FPS játékban (a játék kontextusán belül) gyilkosságról beszél. A program képes a háttérzajok elemzésére is, ez alapján pedig jelentheti a moderátoroknak, ha például családon belüli erőszak történik a háttérben.
A cikk teljes tartalma a Qubit. oldalán érhető el.
Kövesd az oldalunkat a Facebook-on és a Twitteren is!