Gépi tanulás, a jelen mesterséges intelligenciája

Gépi tanulás, a jelen mesterséges intelligenciája
A mai számítástudomány egyik kulcsterülete a gépi tanulás, „az új mesterséges intelligencia.” Egyre több program tanul, azaz működését úgy módosítja, hogy jobban alkalmazkodjon a rábízott feladathoz: adatok közötti mintákat keresve arc alapján ismerjen fel személyeket, értsen meg szöveget, vezessen autót, ajánljon filmet, e-mailek közül szűrje ki a szemetet stb. Sorozatunkban a hétköznapi és üzleti folyamatok értelmezéséhez ma már megkerülhetetlen infokommunikációs fogalmakat (gépi tanulás, MI stb.) vesszük górcső alá.

A korábbi gyakorlatban algoritmusok kódolásával, a programozók döntötték el, mit kell tenniük a számítógépeknek. Mára változott a helyzet: sok feladathoz a programozók adatokat gyűjtenek részletes programírás helyett. Az adatokban több példa található a teendővel kapcsolatban. A tanulóalgoritmus ezek ismeretében automatikusan módosítja a tanulóprogramot, hogy megfeleljen az adatokban specializált elvárásoknak. A cél nem a gyakorlóadatok reprodukálása, hanem új lehetőségek pontos előrejelzése.

Állandósult adatrobbanás, big data

Az elmúlt évtizedekben internettel, webbel, folyamatosan növekvő számítógép-teljesítménnyel életünk jelentősen digitalizálódott, az asztali gépektől az okostelefonokig, a komputer ugyanolyan nélkülözhetetlen tárggyá vált, mint a televízió vagy a mikrohullámú sütő. Mivel óriási mennyiségű adat keletkezik, feldolgozásuk, információvá alakításuk egyre kifinomultabb megoldásokat igényel.

Ez már az állandósult adatrobbanás, a big data világa, de az 1950-es évek végén indult több évtizedes kutatómunka ellenére sok alkalmazáshoz képtelenek vagyunk hibátlan algoritmust írni. Adatot gyűjteni viszont könnyű hozzájuk, és ez a felismerés alapozta meg a gépi tanulás diadalmenetét.

Evolúciós modellek
A statikus programutasítások helyett a természetből, az evolúciótól ellesett modelleket másoló, azokat csúcsra futtató „gépi tanulás” (machine learning) kifejezést a számítógépes játékok és a mesterségesintelligencia-kutatás egyik úttörője, az IBM-nél dolgozó Arthur Lee Samuel találta ki 1959-ben. A gépi tanulás azonban nemcsak információkivonatolás az adatokból, hanem, mint minden tanulás, az intelligencia egyik alapkövetelménye is. Egy intelligens rendszer alkalmazkodik környezetéhez, megtanulja, hogy hibáit ne ismételje meg, sikereit viszont igen.

Mesterségesintelligencia-kutatók sokáig azt hitték, hogy új paradigma, újfajta gondolkodási mód, új számítási modell és a modellen nyugvó új algoritmussorok kellenek az MI megvalósulásához. Az általános vélekedés alapján a világ sok aspektusa szimbólumokkal ábrázolható, az intelligencia egyes aspektusai pedig azok módosításával utánozhatók gépekben. A komputereket úgy tervezték, hogy a szimbólumokkal megjelenített bemenetekből jól megformált, intelligens kimeneteket hozzanak létre. Ez az eljárás azonban csak akkor, de akkor is csak döcögve működik, ha nagyon pontosan meghatározzák az inputot, ami teljesen megfelel a bizonyosság követelményeinek, mert bizonytalanság esetén a rendszerek képtelenek megfelelő következtetéseket levonni, előrejelezni stb. Ráadásul a bemeneti adatokon kívül szinte mindig léteznek a kimenetet befolyásoló más tényezők is. Ezek a figyelmen kívül hagyott tényezők okozzák a bizonytalanságot. Már a kezdetben próbálkoztak a jelen adatfeldolgozását meghatározó statisztikai-valószínűségi megközelítéssel, ám egészen az 1980-as évek végéig az emberivel azonos szintű gépi értelem igézetében a kevésbé gyakorlatias szimbolikus módszer uralkodott.

Big data és manuálisan feldolgozhatatlan óriási adatsorok

Az 1990-es évektől a gépi tanulást könnyebben megoldható feladatok végrehajtására kezdték használni. A szimbolikus megközelítés háttérbe szorult, népszerűvé vált a statisztika, majd jött a big data és a manuálisan feldolgozhatatlan óriási adatsorok.

A gépi tanulórendszerek két csoportba sorolhatók: zömük felügyelet mellett, a többi felügyelet nélkül tanul. Lényegi különbség, hogy a rendszer kap visszajelzést, vagy sem. Az elsőben a számítógép egy kívülállótól – „tanártól” – megkapja a bemeneti adatokat és az óhajtott kimenetet, és addig gyakorol rajtuk, amíg meg nem tanulja az inputot outputtá alakító általános szabályt. Népszerű változata a megerősítéses tanulás: a rendszer eredmények alapján jutalmazza, illetve bünteti az algoritmus teljesítményét.

Felügyelet nélküli tanulásnál az algoritmus nem kap segítséget a kimenettel kapcsolatban, „öntanulóvá” válik, saját magának kell rejtett mintákat találnia az adatokban.

A hatalmassá nőtt adatsorok kezelésére dolgozták ki a „mélytanulást” (deep learning). Célja, hogy a gépek tanuljanak meg hierarchikusabban és környezettől függően „gondolkozni.” Ha például látnak egy elefántot, az állatvilág általános jellegzetességeiből kiindulva, rétegről rétegre haladva jussanak el a kizárólag az elefántra jellemző tulajdonságok felismeréséig. Az algoritmus, általában egy idegháló szintenként tanulja meg a bemenő adatok tulajdonságjegyek szerinti hierarchiáját, minták szerinti osztályozását. Az adatokat kizárólag így tudja mélységben és pontosan megjeleníteni, de közben a variációs lehetőségekről sem feledkezik meg.

Használatuk annyira általánossá válik, hogy hamarosan szinte minden számítógépes tevékenységünket tanulóalgoritmusok határozzák majd meg. Sorozatunk előző cikkében az algoritmusok világáról írtunk, a következő részben a mesterségesintelligencia-jelenséget járjuk körbe.

Kövesd az oldalunkat a Facebook-on és a Twitteren is!


Kömlődi Ferenc

Kömlődi Ferenc, jövőkutató, író. Szakterülete: jövőkutatás, mesterséges intelligencia, ember-gép viszony, transzhumanizmus. Az NJSZT havi Hírmagazinjának, blogjának (Jelenből a jövőbe), az első magyar …