Skip to main content

A szerencsétlen dualista és a mesterséges intelligencia esete

Nyomtatóbarát változatNyomtatóbarát változat


Ez engem arra a taoista történetre emlékeztet… ami valahogy így hangzik: két bölcs álldogált a hídon, a patak fölött. „De szeretnék hal lenni, a halak olyan boldogok!” mondta az egyik a másiknak. A másik azt válaszolta erre, hogy „Honnét tudod, vajon boldogok-e a halak vagy sem? Hiszen te nem vagy hal.” Mire ismét az első szólalt meg: „De te viszont nem vagy én, tehát honnét is tudhatnád, vajon tudom-e, hogyan éreznek a halak?”
(Douglas R. Hofstadter:
A Coffeehouse Conversation)

A logikatudós Raymond M. Smullyan egyik elbeszélésének olyan dualista a főszereplője, aki meg van róla győződve, hogy a szellem és az anyag két különböző dolog, eközben pedig rettenetesen szenved az e világi léttől. De öngyilkosságot sem mer elkövetni, mert arra gondol, hogy milyen gyötrelmek várnának majd lelkére a túlvilágon. Idáig tehát a szokványos test-lélek problémáról van szó.

A történet akkor válik érdekessé, amikor felfedezik a végső gyógyszert, és „ennek hatására az ember lelke vagy szelleme tökéletesen elpusztul ugyan, de a test pontosan úgy fog funkcionálni, mint korábban. Kívülről semmilyen különbséget nem lehet megfigyelni: a test továbbra is úgy viselkedik, mintha még mindig lenne lelke” – mondja Smullyan. Úgyhogy ezt a csodagyógyszert mintha éppen a szerencsétlen dualistának találták volna ki.

Aki persze el is határozza, hogy kihasználja a lehetőséget, ám az utolsó éjszakán belopózik hozzá egy barátja, és hogy megszabadítsa kínjaitól, injekció formájában beadja neki a csodaszert. Másnap tehát egyedül a test ébred fel, és indul el megvenni a gyógyszert, és végül egyedül a test kiált fel, amikor a szernek már hatnia kellene, hogy de hiszen „ez egyáltalán nem segített rajtam! Továbbra is van lelkem, és pontosan ugyanúgy szenvedek, mint eddig!” Nem lehetséges-e, kérdezi a novella zárómondatában Smullyan gúnyosan, hogy „esetleg van valami kisebb gond a dualizmussal”?

A történet két okból is kapcsolódik a mesterséges intelligenciához (méghozzá annak ún. „erős változatához”, mely szerint egy megfelelően programozott számítógép „szó szerint megért és egyéb kognitív állapotokkal rendelkezik”). Egyfelől a mesterséges intelligencia történetét is végigkísérte a dualizmus problémája. Másfelől pedig az emberben óhatatlanul ugyanez a kérdés merül fel akkor is, ha kellően nagy számú, a mesterséges intelligencia mibenlétére vonatkozó elmélettel találkozik. Mármint az, hogy nincsen-e valami kisebb gond a mesterséges intelligencia elméleti hátterével is.

Az egyik, meglehetősen szélsőséges álláspont szerint ugyanis, amit például a mesterséges intelligencia világhírű kutatója, John McCarthy neve is fémjelez, „olyan egyszerű gépekről, mint a termosztát (sic!), elmondható, hogy hiedelmeik vannak, és a hiedelmek megléte jellemző a legtöbb problémamegoldásra képes gépre” is. A másik, bizonyos értelemben szintén szélsőséges álláspont képviselői pedig, amikor az a kérdés, hogy miért ne volnának képesek gondolkodni a digitális számítógépek is, válasz helyett (mint ahogy például a későbbiekben bemutatott John Searle is) az ember valamiféle „belső intencionalitásáról”[1] és holmi „oki hajtóerőkről” beszélnek. És teszik ezt anélkül, hogy meg akarnák vagy meg tudnák mondani, hogy pontosan mit is értenek ezen fogalmak alatt. Legfőképpen pedig az nem derül ki, hogy kicsoda vagy micsoda rendelkezhet mondjuk a belső intencionalitással. Az egyik felfogás végtelenül kitágítja, a másik végtelenül beszűkíti a gondolkodó gépek fogalmát, de egyik sem boldogul azzal a problémával, hogy mi is a megértés valójában.

A mesterséges intelligencia helyzete persze bizonyos értelemben egyedülálló. Méghozzá azért, mert itt minden az értelmezésen múlik.[2] Itt maga a központi fogalom is kérdéses: az, hogy pontosan mit is értsünk értelem (akár természetes, akár mesterséges értelem) alatt, és semmi nem garantálja, hogy amit az egyik tábor perdöntő kísérletnek fogad el, azt a másik nem gúnyolja majd ki. A mesterséges intelligencia bizonyos tekintetben még sokkal elvontabb és kevésbé kézzelfogható problémákkal foglalkozik, mint a kvantumfizika, így aztán sokkal több múlik a különböző definíciókon, megállapodásokon, kimondott vagy kimondatlan előfeltevéseken.

Az olyanokon, mint például az is, hogy milyen a test és a lélek (az anyag és a szellem, az agy és a gondolkodás, sőt a hardver és a szoftver) egymáshoz való viszonya. És bár végső soron valószínűleg túlzó leegyszerűsítés volna erre az egyetlen kérdésre visszavezetni az egész, végtelenül szövevényes és olykor határozottan önellentmondásos problémakört, a történeti szempontokat is figyelembe véve első megközelítésben azért érdemes ezzel kezdeni.

Méghozzá egészen a XVII. század elejéig visszamenve, amikor is a Galilei-féle új fizika azzal a feltételezéssel élt, hogy az igazság a „matematika nyelvén” van megírva (egészen pontosan az absztrakt geometriáén). Ami a későbbiekben továbbfejlesztve átfogalmazható lesz úgy is, hogy például a képletek használata azért célravezető, mert ezek magát a valóságot és a valóságban létező összefüggéseket írják le. Egyáltalán nem idegen a modern európai gondolkodástól az a meggyőződés, mely szerint a természet matematikai összefüggéseken keresztül megnyilvánuló szabályosságainak tanulmányozása azonos (vagy legalább egyenrangú) magának a természetnek a tanulmányozásával.[3] A geometriai szimbólumok manipulációja révén az új fizika szerint a valóságról tudunk meg dolgokat, és innét már csak egylépésnyire van annak a „mesterséges intelligencia nagyapjának” nevezett Thomas Hobbesnak a felfogása, aki 1634-ben keresztülutazott egész Itálián, hogy Galileivel találkozhasson, és aki végső soron arra törekedett, hogy a politika tudományát ugyanolyan szilárd és megbízható alapokra helyezze, mint amilyenre Galilei helyezte a fizikát.

Ő abból indult ki, hogy a gondolkodás (is) szimbólumkezelés, miként az a hangokból felépülő beszéd vagy a papíron történő számolás, csak éppen ilyenkor speciális, „agyi szimbólumokon” végzünk műveleteket. Ennek megfelelően a gondolkodásunk akkor a legtisztább és leglogikusabb, amennyiben ugyanúgy szabályokat követ, mintha számolnánk. A dolog egyébként mechanikus: afféle mentális abakuszon végrehajtott műveletek sora. A matematikusok ugyanazzal foglalkoznak, mint a geometria művelői, a logikatudósok pedig nem tesznek mást, mint szavakból állításokat, állításokból szillogizmusokat és szillogizmusokból bizonyításokat raknak össze. „A következtetésen számolást értek”, mondta Hobbes.

Részben ennek a felfogásnak a hatására hitték azt még az 1950-es évek mesterséges intelligenciával foglalkozó kutatói is, hogy ha lesz egy nemzetközi nagymesteri szinten sakkozó számítógép, akkor az tulajdonképpen intelligens lesz. Mivel ugyanis a sakk a lehető leglogikusabb játék, vélték, a logikai szabályok szigorú követése pedig tulajdonképpen maga a gondolkodás, a sakkozni képes gépek szükségképpen gondolkodnak is. Amit ma már persze senki nem venne komolyan, hiszen a Kaszparovot legyőző Deep Blue-tól mi sem áll távolabb az emberi értelemben vett gondolkodásnál. Közönséges célgép ez, semmi más.[4]

És különben is: az egész szimbólumkezeléses elmélettel van egy alapvető probléma, méghozzá az, hogy nem tudja megmagyarázni, miként jön létre az eredetileg jelentés nélküli szimbólumok manipulálásából a megértés, azaz, hogy miben különbözik mondjuk az elme és egy abakusz. Mert az, hogy alapvető eltérés van közöttük, kétségtelen: az elme érti a szimbólumokat, amiken műveleteket végez, az abakusz nem. A beszéd vagy az írás kizárólag akkor bír jelentéssel, ha megértés áll mögötte, tehát vagy a hobbesi, szimbólummanipuláción alapuló „belső beszédet” is visszavezetjük valamire, ami képes felfogni a szimbólumok jelentését (és ami nyilvánvalóan nem szimbólummanipuláción keresztül dolgozik), vagy nem jöhet létre a megértés. Már amennyiben egyáltalán valóban a szimbólumkezelést használja az agyunk, hiszen az egyik lehetőség ennek az elméletnek a teljes elvetése volna.

De még mielőtt megvizsgálnánk ezt, haladjunk tovább a Hobbes-féle úton egészen Descartes-ig, aki legalább Hobbeshoz hasonlóan fontos szerepet játszik a mesterséges intelligencia történetében, és aki azt az első ránézésre témánktól meglehetősen messze eső megállapítást tette, hogy minden geometriai probléma megoldható matematikai eszközökkel. Ebből azonban arra is következtetett, hogy az addigra már geometrizált fizika is leírható az algebra segítségével; és végül arra is, hogy a geometria, az algebra és a fizika mindegyike „alkalmazott matematika” csupán, ahol a matematika mint olyan nem kötődik valamilyen konkrét anyaghoz vagy problémához. Ekkor viszont minden leírható vele: akár a gondolkozás is. Tehát a gondolatokat is „szimbolikus reprezentációk”-nak tekinthetjük, és ugyanaz igaz rájuk is, mint a számukra modellül szolgáló matematikai szimbólumokra. Ugyanúgy nem kötődnek az őket hordozó anyaghoz, mint ahogy a matematika sem. A gondolkodás független az őt hordozó anyagtól.

És ezzel már majdnem el is érkeztünk az 1950-es évek mesterséges intelligenciájáig, Descartes ugyanis kijelenti, hogy a gépek azért nem képesek gondolkodni, mert képtelenek racionálisan manipulálni a szimbólumokat. Vagyis: ami képes erre, az gondolkodik. Vagyis: ha lenne egy gép, ami képes volna erre, akkor az gondolkodna is. Igazán nem nehéz a descartes-i gondolkodó gépet a XX. század komputereiben felfedezni, elvégre ezek racionálisan, a matematika szabályaival összhangban végeznek műveleteket a beléjük táplált adatokon: a szimbólumokon.

Ekkor azonban még mindig van két alapvető problémánk. Az egyik az, hogy a gondolkodó számítógép létének elfogadásához hinnünk kell abban is, hogy a gondolkodás valóban szimbólumok manipulálása és semmi több – a másik probléma pedig ugyanaz, mint Hobbes esetében is volt, tehát az, hogy továbbra sem tudjuk, hol és hogyan jön létre a megértés. Nem tudunk válaszolni rá, hogy amikor a számítógép értelem nélküli szimbólumokat rak egymás mellé, akkor miért és hogyan értené meg, hogy most mondjuk egy összeadást végez el, most pedig valami mást csinál. Sőt, a descartes-i modell esetében egy embernél sem tudjuk.

Ami Alan Turing, a neves angol matematikus szerint nem is olyan nagy baj. Nem azt kell ugyanis kérdezni, hogy miért vagy hogyan gondolkodik akár az ember, akár a gép, hanem azt, hogy milyen az, ha valaki (vagy valami) értelmesen viselkedik. A tudomány mindig is „fekete doboz” problémákkal foglalkozott, azaz olyan helyzetekkel, ahol nem tudjuk, hogy mi van odabent, és a kijövő jelekből próbálunk csak következtetni rá – miért ne tennénk hát most is ezt. Méghozzá úgy, hogy elmondhassuk: ez a vizsgálat „meglehetősen éles vonalat húz az ember fizikai és intellektuális képességei közé”. És ez indokolt is, hiszen ahogy egy ember sem kelhetne versenyre egy repülőgéppel, egy géptől sem lehet (vagy legalábbis nincsen értelme) elvárni, hogy ugyanolyan legyen, mint mi.

Nem kell hát mást tennünk, mint továbbfejleszteni az ún. imitációs játékot, amiben az eredeti változat szerint hárman vesznek részt: egy férfi, egy nő és egy kérdező. Ezek nem láthatják és nem hallhatják egymást, és ketten közülük írásban (vagy egy számítógép klaviatúráján keresztül) érintkeznek a harmadikkal: a kérdezővel, akinek azt kell kiderítenie, hogy partnerei közül melyik milyen nemű (miközben azok megpróbálhatják minden lehetséges módon félrevezetni).

A férfit vagy a nőt egy komputerrel helyettesítve a kérdés az lesz, hogy meg tudjuk-e különböztetni egymástól az embert és a gépet az írott válaszok alapján. Turing szerint amennyiben a komputer az emberétől megkülönböztethetetlen válaszokat ad, akkor ugyanolyan intelligensnek kell tekintenünk, mint amilyenek mi magunk vagyunk. És bár „szemtől szemben” rögtön rájönnénk, hogy nem emberrel, hanem géppel van dolgunk, szerinte ez nem sokat nyom a latban, hiszen ha a gondolkodás független az anyagtól, akkor a külalak is lényegtelen, és később Joseph Weizenaum[5] valóban leírja, hogy miként lehetne számítógépet készíteni egy guriga WC-papír meg egy csomó kavics felhasználásával. Amennyiben Turing elképzelése helyes, és amennyiben ez a rendszer is képes átmenni az általa kidolgozott teszten, akkor ezt is értelmesek kell tekintenünk.

Ami ugyan meglehetősen képtelenül hangzik, de ez önmagában még nem lehetne érv a Turing-teszt ellen. Akkor már inkább az, hogy (miként azt maga Turing is elismeri), a digitális számítógépek ugyan ún. univerzális Turing-automaták is (ami azt jelenti, hogy a rendelkezésükre álló erőforrásoktól, kapacitástól, stb. függően hosszabb-rövidebb idő alatt bármelyik digitális számítógép bármelyik másikat képes önmagában „modellezni”) – viszont a világ nem kizárólag digitális számítógépekből áll. Az emberi agy például nem az, és bár Turing egy meglehetősen erőltetett megoldást ajánl,[6] valójában több mint kétséges, hogy képes lehet-e egy digitális számítógép (ami ún. véges állapotú automata) tökéletesen modellezni az emberi agyat (vagyis egy nem véges állapotú automatát), ami egyszerűen másmilyen.

Persze visszavághatunk azzal, hogy a Turing-tesztben nem is az számít, a gép tökéletesen a miénkkel azonos okokból kifolyólag hozza-e létre a (legalább látszólag értelmes) válaszokat. Azaz nem számít, mi módon jut el oda, hogy intelligensnek tűnjön, hiszen a gondolkodás független az anyagtól, és különben is: mivel nem tudjuk előre, hogy valami értelmes-e vagy sem (elvégre fekete dobozzal van dolgunk), ezért éppen ennek a tesztnek a kimenetelétől függ minden.

Turing azzal mentegetőzik, hogy „Nem akarom azt a benyomást kelteni, mintha úgy gondolnám, nincsen semmi rejtélyes a tudatosságban… De nem hinném, hogy ezeket a rejtélyeket fel kellene oldani ahhoz, hogy válaszolni tudjunk… a kérdésre”,[7] ez azonban valójában csak a probléma megkerülése. A Turing-tesztből ugyanis nem derül ki, hogy miképpen jön létre az intelligencia, és egyáltalán nem is lehetünk benne biztosak, hogy az akadályt sikerrel vevő számítógép valójában bármit is ért a kérdésekből: hogy nem csupán szimulálja-e az értelmes válaszokat. Határozottan hiteltelennek tűnhet a számunkra egy olyan, a mesterséges intelligencia mibenlétével foglalkozó teszt, ami éppen a mesterséges intelligencia legfontosabb problémáival nem foglalkozik, vagyis azzal, hogy miként keletkezik és micsoda is valójában az értelem.

Erre egyébként a másik híres gondolatkísérlet (és másik véglet), az a Searle-féle „kínai szoba” sem képes válaszolni, ami egyébként mintha a Turing-teszt hatására jött volna létre – afféle ellentesztként. Ha Turing azt írta egy helyütt, hogy a gépi intelligenciában való szélsőséges kételkedés ahhoz a képtelen eredményhez vezet, hogy azt kell állítanunk: „az egyetlen módszer meggyőződnünk róla, vajon egy gép gondolkodik-e, az, ha magunk is gépek vagyunk és gondolkodunk”, akkor a kínai szoba éppen ezt a helyzetet kívánja modellezni, illetve azt bebizonyítani, hogy a gépek legfeljebb szimulálják a megértést, de igazából nem képesek rá.

Képzeljük el, mondja Searle, hogy egy szobában vagyunk, és valaki cédulákra írt, kínai nyelvű kérdéseket dug be az ajtó alatt, amiket mi egyáltalán nem értünk. Van viszont egy szabálykönyvünk, amiből megtudhatjuk, hogy egy adott jelsorozatra milyen jelek sorozatával kell válaszolnunk, vagyis egyszerűen végrehajtunk egy olyan utasítássorozatot, ami számunkra nem jelent semmit. A kinti ember válaszainkat elolvasva mégis azt fogja hinni, hogy tudunk kínaiul. Ám eközben nem jön létre a megértés: sem mi nem értjük a kérdéseket, sem pedig a szabálykönyv. És mivel most tulajdonképpen a komputer működését modelleztük, senki nem mondhatja, hogy a számára értelemmel nem bíró jeleket manipuláló gép értené, hogy miről van szó. Ha pedig valaki azt állítaná, hogy bár mi magunk nem tudunk kínaiul, a külvilág felől egyetlen, egységes rendszernek látszó kínai szoba viszont igen, akkor ezt a legegyszerűbben úgy cáfolhatjuk meg, hogy kívülről megtanuljuk a könyvben szereplő szabályrendszert, azt, hogy mondjuk a „kriksz, kriksz” után a „kraksz, kraksz” következik. Így már a szobára sincsen szükség: nyugodtan sétálgathatunk a szabad ég alatt, és válaszolhatunk a kínai nyelvű kérdésekre anélkül, hogy bármit is értenénk. Azaz nem lehetséges, mondja Searle, hogy „valami gondolkodik, megért és a többi, kizárólag annak köszönhetően, hogy egy megfelelő programmal ellátott számítógép… a formális szimbólumok kezelése önmagában nem rendelkezik intencionalitással… a szimbólumok nem szimbolizálnak semmit. Nyelvészeti szóhasználattal élve csak szintaxisuk van, szemantikájuk nincs”, és noha egy rendszer bizonyos területeken egészen emberi képességekkel is rendelkezhet (például az asztali számológépek képesek az összeadásra), ebből még nem következik, hogy rendelkezniük kell intencionalitással is.

Tehát mintha végre tudnánk a helyes válaszokat – két nem is olyan apró szépséghibától eltekintve. Az egyik az az, hogy immár még annyi eszközünk sincsen az értelmesség meghatározására, mint eddig: Searle mindössze annyit képes mondani, hogy „csak olyasvalami lehet intencionális, ami rendelkezik ilyen [az emberére hasonlító] oki hajtóerővel”, illetve azt, hogy ez egyáltalán nem független az anyagtól. Searle a gondolkodás és az agy eddigi, dualista szétválasztása helyett azt javasolja, ne tekintsük lényegtelennek, hogy milyen biológiai, illetve kémiai folyamatok hozták létre a gondolkozásra is alkalmas emberi agyat, és ezzel implicit módon arra a mesterséges intelligenciát régóta gyötrő kérdésre is választ ad, hogy mi okom volna feltételezni például nekem, hogy rajtam kívül bárki más képes gondolkodni?

Az ismeretelméleti szkepticizmus szerint természetesen semmi, és ezt az álláspontot leginkább azért szokták elvetni, mert a mesterséges intelligencia kutatásának szempontjából terméketlen és sehová sem vezet (nem mintha ez tudományos érv volna). Searle megközelítése viszont azt sugallja, hogy a többi embernek azért kell gondolkodó lénynek lennie, amiért mi is azok vagyunk: mert a többi ember is ugyanazokból az anyagokból, ugyanolyan struktúrával épül fel. Tehát mivel szétválaszthatatlan kapcsolat van az anyag és az értelem között, a többieknek is gondolkozniuk kell.
Ez idáig logikusnak tűnik, csak éppen túl azon, hogy megtudjuk, „az intencionalitás, bármi legyen is az, biológiai jelenség, és mint ilyen, okozatilag függ keletkezésének sajátos biokémiájától”, az nem derül ki, hogy mi is az az intencionalitás, és mi is az a sajátos biokémia. A mesterséges intelligencia így mintha azzal a megállapítással lenne csak gazdagabb, hogy az ember egészen biztosan gondolkodó teremtmény, a mostani, szimbólumkezelésen alapuló számítógépek pedig nem azok…

Ez volna hát az egyik probléma, a másik pedig az, hogy Searle elsiklik olyan, alapvető fontosságú technikai részletek felett, amik pedig az ellentábor szerint az egész okoskodás kimenetelét megváltoztatnák. Amikor azt mondja, hogy kínai szobában üldögélő” személy tegye belsővé a rendszer minden elemét. Memorizálja a könyvből a szabályokat és a kínai szimbólumok adatbankjait, továbbá minden számítást fejben végezzen el”, akkor egyszerűen eltekint attól, hogy erre egyetlen ember sem lenne képes, mondja Daniel C. Dennett és Douglas R. Hofstadter. Ráadásul Searle „a komplexitás számos szintjét ugrotta át” állításainak alátámasztásához érvelés közben máskor is. Hiszen még a legfejlettebb mesterséges intelligenciának is döbbenetesen hosszú időbe tellene megtalálnia egy-egy helyes választ (ha ugyan egyáltalán képes volna rá), mi pedig a kínai szoba leírását olvasva úgy érezhetjük, mintha „kínaiul értőként” viselkednénk, pedig egy valós helyzetben nem képzelnénk ezt. És ez azért is alapvető hiba, mert a megoldás kulcsa Dennett és Hofstadter szerint a „rendszerelvű” válasz. Az, hogy a kínai szoba esetében az intelligencia nem az egyes elemekben rejlik, hanem a rendszer egészében, mint ahogy az embernél sem az egyes neuronok gondolkoznak, hanem az agy. A gondolkodáshoz viszont hatalmas komplexitás kell.

Szó, ami szó, első hallásra egyszerű és meggyőző elmélet ez – megváltoztathatja viszont a helyzetet, ha egy „redukált kínai szobát” gondolunk el, vagyis egy olyan szituációt, amikor a szabályok valóban megtanulhatóak (mert a meglehetősen mesterségesen megválasztott kísérleti körülményeknek megfelelően mondjuk mindössze pár száz lehetséges kérdésre kell felkészülni). Ekkor a redukált kínai szobában tartózkodó ember valóban rendszerként fog viselkedni, elvégre tényleg „fejből tudja” a bejövő krikszkrakszokra adandó válaszokat, viszont továbbra sem fog érteni semmit. És bár erre Dennet és Hofstadter talán azt válaszolnák, hogy ha viszont az eredeti modellben szereplő, bonyolult válaszrendszert kellene megtanulni, akkor a komplexitás mégis létrehozná a megértést, ezt nem biztos, hogy mindenki nagyon erős érvnek fogja tekinteni. Hiszen semmi nem szól mellette.

Ráadásul az, hogy miként jönne létre a megértés, és hogy végső soron mi is az intelligencia, a rendszerelvű megközelítésből sem derül ki. Pedig ezek volnának a mesterséges intelligencia alapkérdései. A szimbólummanipuláció hívei sem boldogultak ezzel a kérdéssel, és Searle sem – most pedig ez a megközelítés is csupán annyit állít, hogy megfelelő komplexitás esetén majd úgyis megjelenik az értelem (Searle-nél ennek a feltételezésnek az felelt meg, hogy a megfelelő anyag esetén fog létrejönni az intenció, és a „megfelelő anyagba” bátran beleérthetjük az anyag megfelelő komplexitását is[8]).

Csupán gondolatkísérletek, logikai bűvészmutatványok és hasonlatok vannak tehát a birtokunkban, nem pedig magyarázatok: mintha a mesterséges intelligencia egész filozófiája sem szólna másról. Mintha megint ott tartanánk, ahol a kezdet kezdetén, amikor a Smullyan szerencsétlen dualistájával kapcsolatos, ravaszul kifundált logikai problémán kellett eltűnődnünk, és nem is tudjuk, hogy mit gondolunk a mesterséges intelligenciáról. Nem véletlenül fogalmazott úgy már az 1980-as évek elején a számítógéptudós Alan J. Perlis, hogy „Egy, a mesterséges intelligencia tanulmányozásával töltött év elég ahhoz, hogy bárkit istenhívővé tegyen.”

De legalább abban azért biztosak vagyunk, hogy gondolunk valamit a mesterséges intelligenciáról.

Jegyzetek

[1] Kb. szándékról vagy célról.

[2] Természetesen meg a „legegyszerűbb” jelenségek értelmezése sem feltétlenül kézenfekvő. Berkeley szerint „látásunk nem érzékel közvetlenül mást, csak fényt, színeket és alakzatokat; hallásunk is csak zörejeket fog fel.” Ennek megfelelően nem halljuk például a kocsi zörgését, csak bizonyos zajokat, és ezekből következtetünk a kocsira.

[3] Ez valójában egyáltalán nem nyilvánvaló. Az alapkérdés ebben az esetben ugyanis az, hogy miként viszonyulunk a „háttérzaj”, a mai megítélés szerint mellékesnek látszó tényezők kérdéséhez: a Galilei-féle, matematizáló felfogás azt mondja, hogy gondosan el kell különítenünk egymástól a matematikai törvényszerűségek által leírható jelenséget meg a zavaró mellékkörülményeket (mondjuk a súrlódást), amik csak homályossá teszik a képet, és meggátolják, hogy felismerjük a valódi szabályszerűségeket.

De a másik, amit itt jobb híján „arisztotelészinek” nevezünk, éppen ellenkező választ ad. K szerint nem nyereség, hanem veszteség, ha a valóságot absztrakt matematikai szabályokon keresztül akarjuk megragadni, mivel ez a valóság elszegényítését: a részletgazdagság megszüntetését jelenti. Kissé általánosabban fogalmazva: a Galilei-féle végső soron a matematika elsődlegességét hirdeti a köznapi tapasztalatokkal szemben, az arisztotelészi pedig ennek az ellenkezőjét.

[4] A mesterséges intelligencia egyik legismertebb szakírója, Douglas R. Hofstadter szerint abban különbözik a sakkozó számítógép és a sakkozó ember, hogy az előbbi nem tudja, hogy miért játszik, nem örül a győzelemnek és nem búsul a vereségen, sőt valójában azt sem tudja, hogy sakkozik egyáltalán.

[5] Híres programja, az ELIZA egy többé-kevésbé értelmes társalgópartnert volt hivatott imitálni – nem nehéz felfedezni a dolog mögött a Turing-teszt hatását.

[6] Turing szerint „az idegrendszer bizonyosan nem véges állapotú automata”, viszont az ún. differenciálanalizátor szintén nem az, és a digitális számítógép jó eséllyel szimulálni tudja a differenciálanalizátor által adott válaszokat. „Igaz, hogy a véges állapotú automatának különböznie kell a folyamatos automatáktól. De ha ragaszkodunk az imitációs játék feltételeihez, akkor a vizsgálódó semmilyen előnyre nem tehet szert ennek [mármint a kétféle automata különbségeinek] révén.”

[7] Turing egyébkent úgy gondolta (sajnos cikkének ez a része hiányzik a magyar fordításból), hogy az ESP (vagyis az extraszenzoriális percepció) általa biztosan létezőnek tekintett jelenségei révén esetleg mégis kiderítheti a kérdező, hogy emberrel vagy géppel van-e dolga. Elég ugyanis azt a kérdést feltennie, hogy „milyen kártya van a kezemben?”, és ha a tesztben reszt vevő ember rendelkezik a megfelelő ESP-képességekkel, akkor szignifikánsan nagyobb valószínűséggel fogja eltalálni a helyes választ, mint a gép.

Egyfelől feltételezhetjük persze, hogy kifinomult tréfával van dolgunk, de valószínűbbnek látszik, hogy Turing – az ötvenes évek elejének számos tudósához hasonlóan – biztosra vette az ESP-jelenségek létezését (ellentétben a mai tudományos állásponttal). Túlmutatna ennek a cikknek a keretein annak boncolgatása, hogy miért hitte Turing, hogy míg a gépek képesek lehetnek leküzdeni a Turing-tesztet, addig az ESP-jelenségeket nem, de ez mintha arra utalna, hogy ő sem gondolta, hogy a sikeres számítógépek valóban értelmesek is, nem pedig csak látszólag azok. Mert ezek szerint mintha mégis lenne valami alapvető különbség az ember és a gép között.

[8] Searle hasonlatként a gondolkodás mellett a tejelválasztást és a foto-szintézist említi: mindegyik feltételezi, hogy az anyagnak (a tej, illetve a cukor létrehozásához) speciális struktúrára van szüksége.



















































































Blogok

„Túl későn jöttünk”

Zolnay János blogja

Beszélő-beszélgetés Ujlaky Andrással az Esélyt a Hátrányos Helyzetű Gyerekeknek Alapítvány (CFCF) elnökével

Egyike voltál azoknak, akik Magyarországra hazatérve roma, esélyegyenlőségi ügyekkel kezdtek foglalkozni, és ráadásul kapcsolatrendszerük révén ehhez még számottevő anyagi forrásokat is tudtak mozgósítani. Mi indított téged arra, hogy a magyarországi közéletnek ebbe a részébe vesd bele magad valamikor az ezredforduló idején?

Tovább

E-kikötő

Forradalom Csepelen

Eörsi László
Forradalom Csepelen

A FORRADALOM ELSŐ NAPJAI

A „kieg” ostroma

1956. október 23-án, a késő esti órákban, amikor a sztálinista hatalmat végleg megelégelő tüntetők fegyvereket szerezve felkelőkké lényegültek át, ostromolni kezdték az ÁVH-val megerősített Rádió székházát, és ideiglenesen megszálltak több más fontos középületet. Fegyvereik azonban alig voltak, ezért a spontán összeállt osztagok teherautókkal látogatták meg a katonai, rendőrségi, ipari objektumokat. Hamarosan eljutottak az ország legnagyobb gyárához, a Csepel Művekhez is, ahol megszakították az éjszakai műszakot. A gyár vezetőit berendelték, a dolgozók közül sem mindenki csatlakozott a forradalmárokhoz. „Figyelmeztető jelenség volt az, hogy a munkások nagy többsége passzívan szemlélte az eseményeket, és még fenyegető helyzetben sem segítettek. Lényegében kívülállóként viselkedtek” – írta egy kádárista szerző.

Tovább

Beszélő a Facebookon