Tiltott világ még az MI-nak is!

Tiltott világ még az MI-nak is!
Minden, amit az ember feltalál, kétélű fegyver. Minden új technológiánál felmerül, hogy jó célra használják-e fel, kreatív tevékenységhez, vagy éppen negatív, romboló módon veti be. De vajon mi szab határt a mesterséges intelligenciának? Ezt a kérdést boncolgatta előadásában Karászi Zoltán, a QTICS csoport vezetője.

A QTICS Csoport harmadik feles vizsgálatokkal, tanúsításokkal foglalkozik számos műszaki területen, így a mesterséges intelligenciával működő eszközök terén is. A nemzetközileg akkreditáló hatóság által jóváhagyott 100 műszaki kollégával az egészen elvonttól a materiális dolgokig rengeteg találmányt vizsgálnak, tanúsít, inspektál.

Ilyen feladatokat csak akkreditált szervezet láthat el, ilyen a QTICS csoport is, amit a Nemzeti Akkreditáló Hatóság minősítette, illetve bizonyos területeken Európai Uniós szinten is bejelentett szervezeti státusszal is bírnak, tevékenységüknek pedig az AI-eszközök minőségbiztosítása is részét képezi.

Értjük egyáltalán a kockázatot?

“Minden kétélű fegyver. A most aktuális AI-hype minden új technológiáról előkerül: vajon rombolni vagy építeni fogunk vele? A beszéd például a mai őrületesen konnektált világ jelensége, ami nyilván lehetővé teszi, hogy folyamatosan hazudjunk egymásnak. Mivel az AI-nak nincs öntudata, sem hinni, sem érezni nem tud. De bizonyos értelemben kockázatot jelent. A lehetőségek sötét oldala, hogy valahogyan elszabadul és kárt okoz, ez a kockázat azonban minden lényeges technológiánál felmerül” - mondja Karászi Zoltán, aki szerint azonban a kockázat és az ember viszonya elég sajátos.

Arról például értesülünk, hogy Joe Biden kutyája időnként beleharap a Fehér Házba látogató diplomatákba, prognosztizálható, hogy úgy két havonta megharap valakit. De mi lenne, ha minket hívnának meg, esetleg a gyerekeinkkel együtt? Akkor már jobban érdekelne, a kertnek melyik sarkában bújt el a kutya. Egy ismert kockázatra az ember pszichéje erősebben reagál.

A fentinél jóval nagyobb kockázat, ám jóval kevesebb figyelmet kap a napjainkban szintén felkapott hidrogéntechnológia. A hidrogént, mint üzemanyagot és energiaforrást egyre több területen alkalmazzák. Nem sokára eljutunk oda, hogy a lakásban a kis gázkazán helyett egy hidrogéngázkazán áll majd, ám a többségnek fogalma sem lesz, pontosan milyen kockázatokkal járhat ez a folyamat.

Az MI-t már most használjuk számos alkalmazásban, elég csak a Google-re vagy a Waze-re gondolni. Hogy ezeket hogyan kell programozni és milyen konkrét technológiai kockázattal járhatnak, azzal még a mérnököknek is csak egy ezreléke van tisztában. És míg Joe Biden kutyáját el tudjuk képzelni, rengeteg mindent használunk, amiről fogalmunk sincsen. Éppen ezért kell az össztársadalmi logika szerint mégis kezelni ezeket a kockázatokat, amihez az arra hivatottak szabályozórendszereket alakítanak ki. Ez jelenleg az EU-ban van a legelőrehaladottabb állapotban.

Milyen jogi kategóriákba sorolják az AI-eszközöket?

A mesterséges intelligencia-törvény, azaz AI Act létrehozására tett javaslat célja, hogy legyenek intézkedések, amelyekkel az MI alkalmazásának negatív következményei elkerülhetők. Ha pedig megelőzni mégsem sikerülne ezeket, fontos, hogy meglegyen az elrettentés, büntetés eszköztára is. Az AI Act tervezetét az Európai Bizottság, a Parlament és a Testület közösen véglegesíti.

Ennek értelmében már most létrehoztak négy alapkategóriát. Az egyik ezek közül a tiltott alkalmazások köre, amelyeket egyáltalán nem szabad kifejleszteni, vagy ha mégis ilyen alkalmazás jönne létre a gyártás melléktermékeként, semmiképp sem lehet piacra lépni vele.

“Ezt követi a high-risk, azaz magas kockázatú kategória, ahol nagyon szépen körülírják és nagyon-nagyon sok feltételt támasztanak ahhoz, hogy milyen körülmények között lehet az adott terméket piacra vinni” - magyarázza a szakértő.

Ennél a kategóriánál a törvény már definiálja, hogy megfelelő biztosítási keretrendszert kell létrehozni. Ez az úgynevezett “certification scheme”, ahol az adott terméket a megfelelő hatóságok által kijelölt szervezetek az összes érvényes európai direktíva szerint vizsgálják és tanúsítják.

“Az EU-nak már ma is vannak az AI-releváns rendeletei. Ezek közé tartozik például a GDPR, ami már erősen belevág az AI jelentette megoldandó problémahalmazba. A mesterséges intelligencia-törvény tehát sok szempontból nem a semmiből fog előugrani. Fokozatosan épül a törvényi keretrendszer, ami körül fogja bástyázni a lehetséges kockázatokat. Hatóságok fognak létrejönni, hogy védjék az AI-megoldások terén fogyasztókat, mint egy sűrű fonású villanypásztor” - mondja Karászi.

A kiberbiztonsági, adatvédelmi szabálytalanságok kivédésére elrettentő mértékű büntetések vannak megfogalmazva. A tiltott kategóriába eső termékek legyártásáért például akár 30 millió eurós büntetés is kiszabható.

Ha pedig egy gyártó egy piacfelügyeleti szervezet felé nem jelenti be az adott termékkel kapcsolatos változásokat, kockázatokat, reklamációkat, az is kiválthat egy 20 milliós büntetést. Hasonlóra számíthat az is, aki tanúsítás nélkül próbálna egy terméket piacra dobni. Szerencsése mára az elménk ráállt, hogy valaminek nemcsak a saját állításunk szerint kell jónak lennie, hanem ezt egy harmadik félnek is tanúsítania kell.

Bár a jogalkotó nagy elrettentő erőt kíván teremteni, a mérnökök felelősségét sem lehet elhanyagolni. Hiszen ők tervezik, használják, felügyelik, tanúsítják az AI-termékeket. E tekintetben az ember fogja kordában tartani ezt a technológiát - képes rá most is, és a későbbiekben is az lesz.

Kövesd az oldalunkat a Facebook-on és a Twitteren is!


Rónyai Júlia

Londonban végeztem nemzetközi kapcsolatok, illetve nemzetközi újságírás szakon. Szabadúszó újságíró, kreatív szövegíró és podcast műsorvezető vagyok, többek közt a Digital Hungary, a HVG és a …