Az első algoritmustól a közeljövő ember-gép rendszereiig

Az első algoritmustól a közeljövő ember-gép rendszereiig
Tanulmányunkban a hétköznapi és üzleti folyamatok értelmezéséhez ma már megkerülhetetlen infokommunikációs fogalmakat (gépi tanulás, mesterséges intelligencia, ember-gép kapcsolat) vesszük górcső alá.

Algoritmusok a kora-középkori Bagdadtól a posztmodern jelenig
Az algoritmus matematikai és számítástudományi jelentésén jócskán túlmutató, a populáris kultúrában is elterjedt kulcsfogalom. A mesterséges intelligenciáig ívelő útját a tudománytörténet kimagasló egyéniségei, köztük al-Hvárizmi, Ada Lovelace és Alan Turing egyengették.

A mesterségesintelligencia-megoldások térhódításával, széleskörű hétköznapi alkalmazásaikkal egyre gyakrabban hangzanak el olyan kijelentések, hogy „hamarosan mindent algoritmusok fognak irányítani.”

Algoritmusokon alapulnak az MI-k, a gépi tanulás és az egyszerű programok is – mindegyik modern létünk meghatározó, számításokhoz, adatfeldolgozáshoz, automatizált érveléshez, döntéshozáshoz egyaránt felhasználható eszköze. De mit is jelent pontosan a köznyelvben is meghonosodott, manapság az egyik legtöbbet kutatott absztrakt fogalom?

Általános megközelítésben problémamegoldásra, feladat-végrehajtásra alkalmas többlépéses módszert, utasítássort, egyértelmű útmutatást… Algoritmus az a recept, amely alapján a pék süti a kenyeret, a mobiltelefon működtetését leíró használati utasítás, a komputert vezérlő program és így tovább. A szoftverek algoritmusok és a hozzájuk kapcsolódó adatok sokaságából tevődnek össze. A véges számú lépésből álló, véges szöveggel leírható, lépésről lépésre átgondolt cselekvéssorozatban minden egyes – tovább már nem bontható, elemi – lépés pontos szabályok szerint kivitelezhető, és bármilyen időpontban egyértelmű, hogy mi lesz a soron következő lépés.

A problémamegoldás a cél meghatározásával és a végrehajtáshoz szükséges terv kidolgozásával kezdődik. Fontos, hogy az általánost megkülönböztessük a konkréttól, mert a nem egyértelmű, nyitott, többféleképpen értelmezhető problémákra nincs algoritmikus megoldás. Logikus, miért nincs: egyszerűen nem rendelkezünk elég információval hozzá.

A lépéseknek egymástól függetlennek, relevánsnak kell lenniük, és teljes rendszert kell alkotniuk. Nincsenek határozatlan lépések, és ha több kivitelezési opció áll rendelkezésre, ki kell választani az egyiket. Egyetlen utasításban sem szerepelhetnek olyan szavak, hogy „nagyjából”, „kb.” és hasonlók, mert nincs véletlen választási lehetőség, a hagyományos algoritmus ugyanis determinisztikus.

Számítástudományi értelemben: a problémamegoldásra javasolt utasítássor akkor algoritmus, ha létezik minden megoldható bemenetre (inputra) megálló komputer, és ugyanaz a bemenet mindig ugyanazt a kimenetet (outputot) adja. Egyik legfontosabb tulajdonsága a végesség, ez alól csak vezérlőrendszerek és interaktív programok kivételek. Esetükben a gép a mi utasításunkra áll meg, egyébként az említett programok folyamatosan futnak rajta. A jelenlegi számítástudomány részben a mesterségesintelligencia-fejlesztések hatására tovább bővíti az algoritmus jelentéskörét, és a kutatók ma már a véletlent is igyekeznek minél inkább figyelembe venni.

Maga az algoritmus kifejezés a nagyhatású Algebra és a hindu tízes számokat („az” arab számokat) ismertető könyvek bagdadi szerzője, al-Hvárizmi (kb. 780-845) nevének latin változatából (Algorithmi) ered. Az első számítógépes algoritmust Lord Byron lánya, Lady Ada Lovelace írta 1842-ben a feltaláló Charles Babbage soha el nem készült Analitikus Gépére, és így nem is tesztelhette. Közel egy évszázaddal később, 1937-ben a mesterségesintelligencia-kutatás atyja, Alan Turing próbálta definiálni a modern algoritmusfogalmat. Algoritmusok pontos leírására dolgozta ki az úgynevezett Turing-gép, a digitális komputerek leegyszerűsített változatának elméletét. Az algoritmussal megoldható problémák megoldhatók egy ilyen géppel is – mondja ki a számításelmélet alapját jelentő Church-Turing tézis. Turing és néhány kortársa törekvéseiből született meg a számítástudomány.

Gépi tanulás, a jelen mesterséges intelligenciája
A mai számítástudomány egyik kulcsterülete a gépi tanulás, „az új mesterséges intelligencia.” Egyre több program tanul, azaz működését úgy módosítja, hogy jobban alkalmazkodjon a rábízott feladathoz: adatok közötti mintákat keresve arc alapján ismerjen fel személyeket, értsen meg szöveget, vezessen autót, ajánljon filmet, e-mailek közül szűrje ki a szemetet stb.

A korábbi gyakorlatban, algoritmusok kódolásával, a programozók döntötték el, mit kell tenniük a számítógépeknek. Mára változott a helyzet: sok feladathoz a programozók adatokat gyűjtenek részletes programírás helyett. Az adatokban több példa található a teendővel kapcsolatban. A tanulóalgoritmus ezek ismeretében automatikusan módosítja a tanulóprogramot, hogy megfeleljen az adatokban specializált elvárásoknak. A cél nem a gyakorlóadatok reprodukálása, hanem új lehetőségek pontos előrejelzése.

Az elmúlt évtizedekben internettel, webbel, folyamatosan növekvő számítógép-teljesítménnyel életünk jelentősen digitalizálódott, az asztali gépektől az okostelefonokig, a komputer ugyanolyan nélkülözhetetlen tárggyá vált, mint a televízió vagy a mikrohullámú sütő. Mivel óriási mennyiségű adat keletkezik, feldolgozásuk, információvá alakításuk egyre kifinomultabb megoldásokat igényel.

Ez már az állandósult adatrobbanás, a big data világa, de az 1950-es évek végén indult több évtizedes kutatómunka ellenére sok alkalmazáshoz képtelenek vagyunk hibátlan algoritmust írni. Adatot gyűjteni viszont könnyű hozzájuk, és ez a felismerés alapozta meg a gépi tanulás diadalmenetét.

A statikus programutasítások helyett a természetből, az evolúciótól ellesett modelleket másoló, azokat csúcsra futtató „gépi tanulás” (machine learning) kifejezést a számítógépes játékok és a mesterségesintelligencia-kutatás egyik úttörője, az IBM-nél dolgozó Arthur Lee Samuel találta ki 1959-ben. A gépi tanulás azonban nemcsak információkivonatolás az adatokból, hanem, mint minden tanulás, az intelligencia egyik alapkövetelménye is. Egy intelligens rendszer alkalmazkodik környezetéhez, megtanulja, hogy hibáit ne ismételje meg, sikereit viszont igen.

Mesterségesintelligencia-kutatók sokáig azt hitték, hogy új paradigma, újfajta gondolkodási mód, új számítási modell és a modellen nyugvó új algoritmussorok kellenek az MI megvalósulásához. Az általános vélekedés alapján a világ sok aspektusa szimbólumokkal ábrázolható, az intelligencia egyes aspektusai pedig azok módosításával utánozhatók gépekben. A komputereket úgy tervezték, hogy a szimbólumokkal megjelenített bemenetekből jól megformált, intelligens kimeneteket hozzanak létre. Ez az eljárás azonban csak akkor, de akkor is csak döcögve működik, ha nagyon pontosan meghatározzák az inputot, ami teljesen megfelel a bizonyosság követelményeinek, mert bizonytalanság esetén a rendszerek képtelenek megfelelő következtetéseket levonni, előrejelezni stb. Ráadásul a bemeneti adatokon kívül szinte mindig léteznek a kimenetet befolyásoló más tényezők is. Ezek a figyelmen kívül hagyott tényezők okozzák a bizonytalanságot. Már a kezdetben próbálkoztak a jelen adatfeldolgozását meghatározó statisztikai-valószínűségi megközelítéssel, ám egészen az 1980-as évek végéig az emberivel azonos szintű gépi értelem igézetében a kevésbé gyakorlatias szimbolikus módszer uralkodott.

Az 1990-es évektől a gépi tanulást könnyebben megoldható feladatok végrehajtására kezdték használni. A szimbolikus megközelítés háttérbe szorult, népszerűvé vált a statisztika, majd jött a big data és a manuálisan feldolgozhatatlan óriási adatsorok.

A gépi tanulórendszerek két csoportba sorolhatók: zömük felügyelet mellett, a többi felügyelet nélkül tanul. Lényegi különbség, hogy a rendszer kap visszajelzést, vagy sem. Az elsőben a számítógép egy kívülállótól – „tanártól” – megkapja a bemeneti adatokat és az óhajtott kimenetet, és addig gyakorol rajtuk, amíg meg nem tanulja az inputot outputtá alakító általános szabályt. Népszerű változata a megerősítéses tanulás: a rendszer eredmények alapján jutalmazza, illetve bünteti az algoritmus teljesítményét. Felügyelet nélküli tanulásnál az algoritmus nem kap segítséget a kimenettel kapcsolatban, „öntanulóvá” válik, saját magának kell rejtett mintákat találnia az adatokban.

A hatalmassá nőtt adatsorok kezelésére dolgozták ki a „mélytanulást” (deep learning). Célja, hogy a gépek tanuljanak meg hierarchikusabban és környezettől függően „gondolkozni.” Ha például látnak egy elefántot, az állatvilág általános jellegzetességeiből kiindulva, rétegről rétegre haladva jussanak el a kizárólag az elefántra jellemző tulajdonságok felismeréséig. Az algoritmus, általában egy idegháló szintenként tanulja meg a bemenő adatok tulajdonságjegyek szerinti hierarchiáját, minták szerinti osztályozását. Az adatokat kizárólag így tudja mélységben és pontosan megjeleníteni, de közben a variációs lehetőségekről sem feledkezik meg.

Használatuk annyira általánossá válik, hogy hamarosan szinte minden számítógépes tevékenységünket tanulóalgoritmusok határozzák majd meg.

Mesterséges intelligencia tegnap, ma és holnap

A mesterséges intelligencia a gépi tanuláson jóval túlmutató kutatási terület. Az emberi értelem modellezése, általános MI helyett ezek a rendszerek manapság egy-egy feladat hatékony végrehajtására specializálódtak. Okostelefonos asszisztensektől gépi fordítókig, robotokig mindenhol jelen vannak.

A mesterséges intelligencia (MI, artificial intelligence) kifejezést a diszciplína történetének egyik legnagyobb alakja, John McCarthy találta ki 1956-ban, a Vermont állambeli Dartmouth College nyári workshopján, ahol a gépi értelem kutatásának és fejlesztésének kérdéseit vitatta meg tudóstársaival. Historikusok ezt az eseményt tekintik a szakterület „hivatalos” születésének. Ott és akkor fogalmazták meg az átfogó célt, az emberivel azonos szintű gépi intelligencia megteremtését, és még az időpontot is kitűzték – 20 év. Hamarosan elkészültek az agyunk idegsejtjeiről mintázott első mesterséges ideghálók, amelyek egymással összekapcsolt egyszerű feldolgozóegységekből (neuronokból) állnak. Belső állapotuk számokkal, aktivációs értékekkel leírhatók, ezektől függő kimeneteket generálnak. A kimeneti értéket mindegyik elküldi a többi egységnek. A bemenetek általában érzékelők adatai, a kimeneti jelek viselkedésre, válaszra utaló mintázatok. A hálózati egységek nem processzorok, mert nem programozzák őket, hanem tanulnak. Ezért tölthetnek be fontos szerepet a gépi tanulásban.

A gyors fejlődés és látványos eredmények ellenére 2018-ban derűlátóbb szakemberek ugyanúgy kb. két évtizedet mondanak, mint 1956 óta mindig, ha az eredeti elképzelések megvalósulásának időpontjáról faggatják őket. Az MI fogalma több jelentésváltozáson ment át, míg eljutott a ma elfogadott két megközelítésig. Az első a klasszikus, az „általános MI”, a másik, a „szűk MI” az 1990-es évektől indult szemléletváltás, a mindent átfogó gépi értelem helyett gyakorlatiasabb szakterületi fejlesztésekre történő átállásnak a terméke. Célja, hogy egy rendszer, például képfelismerő szoftver szimbolikus belső világmodell nélkül, általában tanulással érjen el a programozásán túlmutató, abból nem feltétlenül következő eredményeket: mintázatokat ismerjen fel és csoportosítson, előrejelzéseket készítsen.

Ezek az MI-k meg sem közelítik az emberi értelmet, szűk területükön végzett tevékenységük mégis intelligensnek nevezhető. Minél inkább számszerűsíthető egy feladat, annál jobb eredményt érnek el. Nem meglepően a rengeteg művelet kivitelezését igénylő, ám gondosan definiált szabályokba zárt területeken (sakk, go, póker stb.) diadalmaskodnak az ember felett. A média ezekből a diadalokból von le elhamarkodott következtetéseket: a komputerek fölénk kerekednek, hamarosan eljön az embert meghaladó robotértelem és hasonlók. Tény, az új megoldások az élet szinte minden szegmensében megjelentek, és az automatizációval, robotokkal, negyedik ipari forradalommal óriási MI-robbanás előtt állunk, „magányos” gépi értelmek mellett népszerűvé válnak a közösségi állatokról (méhekről, hangyákról, madárfajokról stb.) mintázott, csoportos tevékenységet folytató többágenses megoldások, rajintelligenciák. Idővel talán a részterületek egyetlen rendszerben történő működőképes integrációja is megvalósul, s akkor sokkal közelebb kerülünk az 1956-ban megfogalmazott általános célhoz.

Az elmúlt néhány év és a jelen legtöbbet kutatott és reklámozott területe a szimbolikus megközelítést háttérbe szorító statisztikai modelleken alapuló mélytanulás, aminek azonban megvannak a maga korlátai – az MI-rendszerekre kiosztott feladatoknak csak egy része oldható meg ezekkel az algoritmusokkal. Eredményeket főként hatalmas adatsorok birtokában érnek el, pontosan körülírt célokat hajtanak végre, például képek felcímkézését vagy beszéd szöveggé alakítását, az intelligencia „nyíltabb” megnyilvánulásaival viszont nehezen boldogulnak.

A jelentéssel, általánosabb következtetéssel és az ember által adottnak vett józanész-bölcsességekkel (zöld a fű, a nappalt az éjszaka váltja stb.) nem tudnak mit kezdeni. Hiába azonosítanak többmillió szót, nem értik a fogalmakat, sőt, akár néhány pixel megváltoztatásával könnyen átverhetők, és például ágyúnak néznek egy teknőcöt.

Adatokon történő tanulás és puszta szavak mellett az MI-knek alapfogalmakat is meg kellene ismerniük, nem pontosan definiált célokat megvalósítaniuk, big data helyett minimális adatmennyiséggel gyakorolniuk, ment közben váltaniuk feladatról feladatra, valahogy úgy, mint a Homo sapiens. A megoldás, az MI Szent Grálja a két megközelítés, statisztikai és szimbolikus összekapcsolásában rejlik. Három (sok-sok bizonytalansági tényezős) területen viszont sikeres integráció esetén sem közelíti meg egy darabig a gépi értelem az emberit: empátia, kreativitás, érzelmi intelligencia.

Érzelmek felismerése nem azonos azok átélésével, képek utánzása és/vagy alapsémáik megváltoztatása nem egyenlő az önálló képalkotással. Előrelépés csak az ember-gép kapcsolat fejlődésétől, a mind szorosabb együttműködéstől várható. A legemberibb tényezőket egyelőre a mintatanuló algoritmusok sem képesek hatékonyan kezelni…

Evolúció 2.0: ember és számítógép viszonya

Hogyan viszonyul a Homo sapiens az állandóan változó számítógépekhez, és a számítógépek hogyan viszonyulnak hozzánk, milyen irányba tart az ember-gép kapcsolat?

Szélesebb körben használt, gyorsabb algoritmusokkal, a gépi tanulás kulcstényezővé válásával, magasabb szintű automatizációval, a mesterségesintelligencia-megoldások robbanásszerű elterjedésével és az interakciós lehetőségek bővülésével ember és számítógép viszonya folyamatosan változik, s közben a számítógép fogalma is átalakul. Az ember-komputer interakció (human-computer interaction, HCI) szakkifejezés – és kutatási terület – arra is utal, hogy míg más eszközök, például a kalapács, ásó stb. csak szűk rendeltetési területükön használhatók, használatuk egyirányú, addig a változatos problémák megoldására alkalmas számítógép reagál ránk, mindig van visszacsatolás: kétoldalú kommunikációt folytatunk vele.

Az interakció kezdetben szöveges, alacsony színvonalú és lassú volt, de ma már többféleképpen történhet. Központi eleme az aktív, az esetek többségében grafikus interfész (GUI), a beszédfelismerő és szintetizáló rendszerek viszont hangalapúval (VUI) működnek, a trendek pedig a többmódú (multimodális) interfészek térnyerését vetítik előre. Ezt a folyamatot felgyorsítja a gépnek a kommunikációs partnerről fiziológiai és más információkat gyűjtő különféle érzékelők, például videokamerák, szemmozgás-követők használata. Az adatok ismeretében a komputer eredményesebben alkalmazkodik hozzánk, aktuális szellemi és érzelmi állapotunkhoz, működését „személyre szabja.” A jövő számítástudományát formáló tényezők törvényszerűen meghatározzák az ember-komputer interakciót. A hardver árának csökkenésével nagyobbak a memóriák, gyorsabbak a rendszerek, a méretzsugorodás és az alacsonyabb áramfogyasztás több hordozható, magunkon viselhető eszközt eredményez – a mobiltelefonoktól az okos csuklópántokig sokféle készülék tekinthető számítógépnek.

A hálózati kommunikáció és az elosztott számítások fejlődésével innovatívabbak az input-technikák (hang, kézmozdulatok stb.). Új kijelző-technológiákkal újabb gépfajták tűnnek fel, specializált, például környezetünk hétköznapi tárgyaiba ágyazott hardverek újabb funkciókat és rendszereket eredményeznek. Ezek egyike a mikrohullámú sütőtől a jégszekrényig stb. különböző háztartási és egyéb gépeket összekapcsoló dolgok internete (Internet-of-Things, IoT), az „ember nélküli internet.”

A mindenütt jelenlévő számítástechnika, az interakciók felgyorsulása, a falméretű óriás-, és a retinára vetített miniatűr kijelzők hatására a kiterjesztett mellett a kényelmetlen headsetektől megszabaduló virtuális valóság is beszivárog a felhasználói hétköznapokba, változatos üzleti, alkotó és egyéb tevékenységeket folytatunk majd a teljes alámerülést biztosító közegben. A sokfunkciós rendszerek és a számítógépes grafikai eszköztár széleskörű hozzáférhetőségének hatására az oktatástól a gazdaságig az élet szerteágazó területein hagyunk fel a hagyományos módszerekkel, és használjuk a mindenféle kommunikációs, interaktív formát közös nevezőre hozó kevert (mixed) médiát. Ezeknek a változásoknak a hardver mellett a gépi tanuláson alapuló MI-algoritmusok és szoftverek, valamint a hardver és szoftver, chipek és ideghálók teljes egységben történő működését biztosító, az emberi agyról mintázott rendszerek az elsőszámú hajtóerői.

Ebben a közegben adottak a már nemcsak elvesztett képességeket, például a látást pótló, hanem meglévő, ép és egészséges érzékszerveink, agyunk feljavítására – „turbósítására” – használható, sebészi beavatkozás nélkül, vezeték nélküli nanoszerkezekként stb. „beültetett” közvetlen agy-számítógép interfészek.

Ember és gép, ember és MI kapcsolata a változásokkal egyre markánsabban kapcsolódik a transzhumanizmus néven ismert futurisztikus eszmerendszerhez. Alapvetése, hogy az evolúció nem ér véget a Homo sapiensszel, a technológiai fejlődés viszont eljutott arra a pontra, hogy kezünkbe vehetjük saját evolúciónk formálását, változatos módszerekkel (MI, robotika, nanotechnológia stb.) javíthatunk magunkon, mert a majdani általános mesterséges, majd szuperintelligenciát csak ember-gép hibridekként leszünk képesek megérteni. A kétfajta intelligencia, eleve nem vagy-vagy, hanem is-is alapon működik. Az MI mai és jövőbeli formái nem szorítják háttérbe, inkább kiegészítik a természetes értelmet, magasabb szintre emelve az ember-gép együttműködést. A fejlődés mente visszacsatolási hurkok sorozata: az ember gépi intelligenciát teremt, a gépi intelligencia növeli a humán értelmet, amely visszahat a gépre, és ez így tovább.

Kövesd az oldalunkat a Facebook-on és a Twitteren is!


Kömlődi Ferenc

Kömlődi Ferenc, jövőkutató, író. Szakterülete: jövőkutatás, mesterséges intelligencia, ember-gép viszony, transzhumanizmus. Az NJSZT havi Hírmagazinjának, blogjának (Jelenből a jövőbe), az első magyar …