
Vajon több haszna van, mint amennyi kárt tehetnek vele? Veszélyben lesznek az adataink, sőt a személyazonosságunk is? Meg tudjuk tartani az ellenőrzést a gépek felett? Ilyen és ehhez hasonló kérdések merülnek fel rendre az emberekben, amikor szóba kerül a mesterséges intelligencia. Félretéve az Én, a robot című film szülte tudományos-fikciós képzelgéseket, joggal merülnek fel a biztonságunkról szóló aggályok, hiszen az adataink valóban veszélybe kerülhetnek, ahogy a hangunkat és a képmásunkat is képesek mostanra teljesen leutánozni. Nem véletlen, hogy az emberek határt akarnak szabni a mesterséges intelligenciának, bizonyos határok azonban a további fejlődés útjába is állhatnak. Hol van tehát az arany középút? Többek között ezt a kérdést fejtegette a Merre tovább? Az AI Act lehetséges reformja című előadásában Lakatos Dániel, a Milestone Intézet egy mentora, aki az Európai Unió első, mesterséges intelligenciát szabályozó rendeletének átdolgozását vetette fel az EurópAI? Az emberi jogok védelme a mesterséges intelligencia korában című rendezvényen, a budapesti Európa Pont látogatóközpontban február 7-én.
„Már tíz évvel ezelőtt keringett a pletyka, hogy Elon Musk a születésnapi partiján vitába keveredett a Google társalapítójával arról, hogy a mesterséges intelligencia fel fogja-e emelni vagy elpusztítja-e a társadalmat. Musk akkor azt mondta, hogy szerinte az MI térnyerése az emberiség végét jelenti majd. Ez a kérdés most, tíz évvel később is releváns” - kezdte Lakatos Dániel, felhívva a figyelmet, hogy az Unióban tavaly elfogadott AI Act az első olyan dokumentum az emberiség történelmében, amely a mesterséges intelligencia szabályozására tesz kísérletet, négy kategóriára bontva a különböző kockázatokat.
„Európa az első komoly szabályozója ennek a területnek és azt mondja, hogy minél nagyobb a kockázat, annál szigorúbb legyen a szabályozás. Ezzel szemben az Amerikai Egyesült Államokban várhatóan több teret fognak adni a fejlesztéseknek, Kínában pedig már most a legnagyobb az MI-vel kapcsolatos befektetések mértéke. Fel kell tennünk a kérdést, hogy itt Európában mi mit akarunk elérni a szabályozással. Ne akarjuk úgy szabályozni a technológiát, hogy még azt sem tudjuk, mire akarjuk azt használni. A cél a legfontosabb, de az MI kapcsán egyelőre nincs európai vízió. Ahhoz azonban, hogy digitálisan szuverének legyünk, saját MI-versenyt kell futnunk, nem sajnálva rá az erőforrásokat” - mutatott rá előadásában Lakatos Dániel. Hozzátette, hogyha a fejlődés mértékével vagyunk elfoglalva, vagyis hogy minél gyorsabban és jobban innováljunk, akkor sosem fogjuk tudni legyőzni Kínát és Amerikát, hiszen azoknak az országoknak nagyobbak az erőforrásaik. A versenyben a tekintetben lehet esélye Európának, ha a fejlesztések irányában tart másfelé.
„Elsősorban három alapvető kérdést kell tisztázni. Az első, hogy mi a probléma, amely célból a mesterséges intelligenciát használni akarjuk. A második, hogy a mesterséges intelligencia segíthet-e azon a problémán, végül pedig hogy akarjuk-e egyáltalán, hogy segítsen, vagy az annyira kockázatos lenne, hogy nem merünk belevágni. Ezekre a kérdésekre muszáj választ adnunk azelőtt, hogy bármilyen fejlesztésbe, illetve szabályozásba kezdünk” - hívta fel a figyelmet a szakember, kiemelve, hogy olyan kereteket kell megteremteni, amelyek között biztonságosan, kontroll alatt fejlődhetnek a mesterséges intelligencia alapú rendszerek, miközben társadalmi célokra használhatjuk fel azokat.
„Nagyon kontextusfüggő, hogy a mesterséges intelligencia használata magas, alacsony vagy közepes kockázatú. Ez változhat attól függően, hogy éppen milyen szektorban használjuk a technológiát. A kockázatelemzés lenne fontos, hogy lássuk, a különböző rendszerek mit csinálnak és hogyan hathatnak a társadalmunkra. Ehhez azonban tisztázni kell az első kérdést, tehát meg kell találni azokat a társadalmi problémákat, amelyek megoldására indokolt lehet a mesterséges intelligencia bevezetése. Hogy a második kérdésre is választ találjunk, vagyis hogy az MI egyáltalán segíthet-e az adott problémán, működhetne egy felület, ahol cégek és start-upok jelentkezhetnének az ötleteikkel, megoldásaikkal. Végül pontos képet kell kapnunk arról, hogy ezek az ötletek működhetnek-e, és ha igen, mivel járnának. A végső döntéshez tehát korlátozott területen és időben tesztelni kell a különböző fejlesztéseket az emberi kontroll és beavatkozás biztosításával, hogy megismerjük a lehetséges kockázatokat és előnyöket. Majd ezeket össze kell vetnünk egymással és megállapítani, hogy a kockázatok ellenére hány ember számára jelente pozitív változást az adott technológia használata. Ha az előny nagyobb, akkor elfogadható a használat” - fejtette ki az álláspontját Lakatos Dániel. A Milestone Intézet mentora szerint ahhoz, hogy ez ilyen formában működhessen, rugalmasabb, részletesebb, összességében tehát jobb szabályozásra lenne szükség, mint az EU által tavaly elfogadott, igencsak merevnek mondható AI Act. A rendelet kapcsán Lakatos rámutatott, hogy amikor az Európai Bizottság elkészítette annak tervezetét, konzultációs taktikát alkalmaztak, vagyis szakmai véleményeket kértek ki az adott kérdéskörökben ahelyett, hogy tapasztalás vagy kutatás alapú eredmények nyomán döntöttek volna.
„Sok fejlesztés jelenleg azért magas kockázatú, mert olyan területeken, például az igazságszolgáltatásban vagy az egészségügyben alkalmazzák azokat. Fontos lenne azonban, hogy lehetőséget adjanak az átsorolásra, ha kiderül, hogy nem indokolt egy adott fejlesztés magas kockázatú besorolása. Ezen kívül egyszerűbbé kellene tenni a kutatók számára, hogy hozzáférjenek a különböző adatokhoz, mindenekelőtt pedig komolyan foglalkozni kellene a már említett három alapvető kérdéssel, a problémák átgondolásával, a stratégiai célok kitűzésével és a társadalmi részvétellel is. Mivel az Unió lemarad az Egyesült Államok és Kína mögött, ezért a szabályozásoknak támogatni kellenne a fejlesztéseket, hogy beszállhasson a versenybe, figyelembe véve a lehetséges profit mellett a technológia társadalmi hasznát. Nem az MI fejlesztése, hanem a társadalmi problémák megoldása kell legyen a végcél, amelyben a mesterséges intelligenciát, mint hatásos eszközt alkalmazhatunk” - szögezte le Lakatos Dániel.
Kövesd az oldalunkat a Facebook-on és a Twitteren is!