
A mesterséges intelligencia szerepét, az azzal kapcsolatos innovációk, valamint a fejlesztések szabályozásának a fontosságát vitatták meg magyar szakemberek a budapesti Európa Pontban február 7-én tartott EurópAI? Az emberi jogok védelme a mesterséges intelligencia korában című rendezvényen. Az előadások apropóját az Európai Unió tavaly elfogadott, a mesterséges intelligenciát a történelemben először szabályozni próbáló AI Act nevű rendelet adta. A szabályozás kapcsán a hozzáértők véleménye több szempontból is eltér, abban azonban mind egyetértenek, hogy a rendelet még gyerekcipőben jár. A Balázsy Panna által moderált eseményen többek között Katona Illés, az ELTE ÁJK negyedéves jogász hallgatója is felszólalt, aki az európai adatvédelmi jog és a mesterséges intelligencia kapcsolódási pontjairól végez kutatást úgy, hogy a kérdéskörrel 2019 óta foglalkozik. Ő a gépek feletti emberi kontroll, és az emberi jogok védelmének fontosságát hangsúlyozta Mire van szükség? Emberi kontroll az AI rendszerek felett című előadásában.
„Az MI szabályozásának, fejlesztésének központi kérdése az emberi ellenőrzés kérdésköre” - kezdte beszédét Katona Illés, aki még az előadása elején fontosnak tartotta leszögezni, hogy nem „technoszkeptikus”. „A mesterséges intelligencia azért zavarja meg az emberi elmét, mert azt szoktuk meg, hogy a gépek buták, az emberek pedig okosak. Ezzel ellentétben az MI intelligens, amelyet összetettebb problémák megoldására hoztak létre. Az új modellek az emberi agyéhoz hasonló mechanizmusok révén hoznak létre összefüggéseket, ugyanakkor nincsen meg bennük az, ami egy emberben, ettől hatékonyak. Az embereknek például korlátozott a számítási kapacitásuk és elfáradnak. A mesterséges intelligenciának ilyen kifogásai nincsenek, ha pedig jól kitűzzük a prioritásokat, a technológia elképesztő társadalmi fejlődést hozhat. Ezzel szemben ugyanakkor ha kivesszük az emberi tényezőket, annak súlyos hátulütői lehetnek” - figyelmeztetett Katona Illés, rámutatva, hogy emberként jobbára képesek vagyunk morális és jogi felelősséget vállalni. Ennek nyomán vannak olyan alapvető értékeink, amelyektől akkor sem állunk el, ha az számtanilag nem racionális. Ilyen például, amikor egyes intézmények kisebbségi csoportokat védenek, hangsúlyozzák az egyenlő bánásmódot és társadalmi értékeket képviselnek, amelyek sok esetben ütközhetnek a számtani érdekekkel.
„A mesterséges intelligencia azon hátrányát, hogy emberi tényező nélkül működik, az emberi kontrollal lehet kompenzálni. Ez lehet mindenféle szabályozás, például előre meg lehet határozni, hogy a fejlesztések során milyen követelményeknek megfelelően kell kialakítani az algoritmust az adott technológiához . Ezen kívül teremthetünk biztonságos tesztkörnyezetet, előírhatunk minőségi követelményeket és részletes dokumentációt, valamint a felelősségi kérdésekben is fontos fejlődnünk. Annak a kérdésköre is lényeges, hogy felülírható legyen-e a mesterséges intelligencia alapú rendszerek döntése. Felléphetnek ugyanis olyan esetek, hogy az adott döntés kiemelt hatással lehet az emberi életre, és bár az MI gyorsabb lenne, felülírás nélkül komoly következményei lehetnek a folyamatnak” - fejtette ki az ELTE hallgatója, olyan példákat hozva, mint az önvezető autók kérdésköre, a rendvédelem és az egészségügy. Utóbbi kapcsán kiemelte, hogy egy diagnosztikai területen működő szoftver rossz döntése akár egy ember életébe is kerülhet.
„Az Unió előrehaladott a szabályozási kérdésekben, ugyanis nincs más olyan hely, ahol ennyire foglalkoznának ezzel a témával. Előírták például, hogy egy adott gépi döntést az ember felül tudjon írni, vagy meg tudja nyomni a stop-gombot akár a határvédelemben, akár az egészségügyben. Az önvezető autók kapcsán is szabályozó keretet írt elő, vagyis a vezető szükség esetén átveheti az irányítást a volán mögött. Emberi felügyelet nélkül továbbá gépi alapú közösségi projektet sem lehet finanszírozni, sőt arra is vannak törekvések, hogy az emberek azokat az algoritmusok által hozott döntéseket is felülvizsgálhassák, amelyek szerint egy adott tartalom káros-e vagy sem. Az unió rendeletét természetesen lehet toldozni, foltozni, a kérdés az, hogy hogyan, illetve hogy jelen állás szerint valóban gátolja-e az innovációt. Tény, hogy az Egyesült Államokhoz és Kínához képest el vagyunk maradva, de nekünk mindenekelőtt azt kell eldöntenünk, hogy milyen értéket akarunk képviselni. A rendeletben hozott kockázati kategóriák jelenleg szakértői benyomásokra épülnek és nem arról szólnak, hogy milyen értékeket védünk. Az emberi élet és méltóság védelméhez például kontroll szükséges, de valamit meg túlszabályozunk, holott anélkül előnyökre tennénk szert. A legnagyobb kérdés, hogy a mesterséges intelligencia pontossága, okossága ellenére bízhatunk-e rá erkölcsi döntéseket. Szerintem itt van az a határ, amit meg kell húzni a társadalom javára” - foglalta össze az álláspontját Katona Illés.
Kövesd az oldalunkat a Facebook-on és a Twitteren is!