Szöveges chaten küldtek el az anyádba? Segít a mesterséges intelligencia!

Szöveges chaten küldtek el az anyádba? Segít a mesterséges intelligencia!
Új fejlesztést tesztelnek a világ legnépszerűbb játék- és e-sport-fejlesztői: ellenőrizni akarják, hogy mi zajlik a szöveges chaten, és ki akarják szűrni a zaklató, sértő tartalmakat, a gyűlöletbeszédet és általában mindazt, ami ellenkezik az adott felület házirendjével.

A massachusettsi Modulate által fejlesztett ToxMod nevű program egyelőre még csak tesztüzemben fut, de máris nagy az érdeklődés iránta.

A fejlesztők ígérete szerint a ToxMod képes különbséget tenni a hangszínek között, figyelembe veszi, hogy milyen érzelmi töltete lehet az elhangzottaknak, és arra is ügyel, hogy ez milyen reakciót vált ki a beszélgetőtársból. A program emellett kontextusba is helyezi az elhangzottakat, és mindezek alapján dönt arról, hogy jelentse-e az esetet a humán moderátoroknak, akik felülvizsgálhatják a mesterséges intelligencia döntését.

Millió órányi beszélgetés, milliónyi probléma

A moderátorprogramot jelenleg több népszerű játéknál is tesztelik, a rendszer iránt pedig a League of Legends-t fejlesztő Riot Games is érdeklődést mutat, ők a saját rendszerükbe akarják beilleszteni a ToxMod fejlesztéseit. A játékkal havonta körülbelül 150 millióan játszanak, a moderációhoz több millió vagy milliárd órányi beszélgetést kellene ellenőrizni. Carter Huffman, a Modulate társalapítója szerint a programjuk ezt a beszélgetéstömeget képes kezelhető szintűre szűkíteni, és ki tudja szűrni a valóban problémás eseteket.

Problémás esetek márpedig vannak: az Anti-Defamation League (ADL) nemzetközi antiszemitizmus elleni polgárjogi szervezet szerint tavaly öt felnőtt játékos közül egy találkozott fehér felsőbbrendűséget hirdető üzenetekkel online játékostársaitól, míg a 10-17 évesek 15 százaléka szembesült hasonlóval.

Fejlődő programok, fejlődő gyűlöletbeszéd

A ToxMod először kiszűri a potenciálisan káros tartalmakat, majd finomabb eszközökhöz nyúl, például nem tekinti gyűlöletbeszédnek és nem is jelenti azt, ha valaki egy FPS játékban (a játék kontextusán belül) gyilkosságról beszél. A program képes a háttérzajok elemzésére is, ez alapján pedig jelentheti a moderátoroknak, ha például családon belüli erőszak történik a háttérben.

A cikk teljes tartalma a Qubit. oldalán érhető el.

Kövesd az oldalunkat a Facebook-on és a Twitteren is!