26.2. Erős MI: Tudnak-e ténylegesen gondolkodni a gépek?

Több filozófus álláspontja szerint egy Turing-teszten átmenő gép nem gondolkodna ténylegesen, csupán szimulálná a gondolkodást. Ezt az ellenvetést is előre látta Turing. Geoffrey Jefferson (Jefferson, 1949) professzor egy beszédét idézi:

 

Amíg nem képes egy gép egy szonettet írni vagy egy zenei versenyművet komponálni, pusztán a gondolatai és az érzései alapján, és nem szimbólumok véletlen alakulása folytán, addig nem fogunk beleegyezni, hogy egy gép egyenlő lehet az aggyal; ehhez az kell, hogy ne csupán megírja, de tudja is, hogy megírta.

 
  --Geoffrey Jefferson

Ezt nevezi Turing tudatossági (consciousness) érvnek: a gépnek saját mentális állapotainak és cselekvéseinek tudatában kell lennie. Ugyan a tudatosság fontos témakör, Jefferson megállapítása azonban lényegileg a fenomenológiához (phenomenology), a közvetlen tapasztalat tudományához kötődik: a gépnek ténylegesen éreznie kell az érzéseit. Más szerzők az intencionalitásra (intentionality) koncentrálnak, ami azt kérdezi, hogy a gép feltételezett hiedelmei, vágyai és más reprezentációi ténylegesen valamilyen valósvilág-beli dologra „vonatkoznak”-e.

Figyelemre méltó Turing válasza erre az ellenvetésre. Felhozhatott volna érveket amellett, hogy a gépek valóban rendelkezhetnek tudattal (avagy viszonyulhatnak fenomenológiailag, illetve viselkedhetnek intencionálisan). Ehelyett Turing úgy érvel, hogy ez a kérdés éppen úgy rosszul lett megfogalmazva, mint a „Tudnak-e a gépek gondolkodni?” kérdés. Ráadásul miért kellene erősebb kritériumokat várni el a gépek esetében, mint az embereknél? A mindennapi életben végső soron nincsen semmilyen közvetlen bizonyítékunk a többi ember belső mentális állapotairól. Mégis, amint Turing rámutat, „ahelyett hogy állandóan erről vitatkoznánk, azzal az udvarias feltételezéssel (polite convention) élünk, hogy mindenki képes gondolkodni”.

Azonban Turing szerint Jefferson hajlandó lenne ezt az udvarias feltételezést a gépekre is kiterjeszteni, ha találkozna intelligensen cselekvő gépekkel. Az alábbi dialógust idézi, amely annyira beépült a mesterséges intelligencia szájhagyományába, hogy egyszerűen nem hagyhattuk ki:

 

EMBER: Szonetted első sorában, mely úgy hangzik, hogy „hasonlítanálak téged a nyári naphoz”, nem lenne legalább ugyanolyan jó, ha „tavaszi nap” szerepelne?

GÉP: Nem jönne ki az ütem.

EMBER: De ha „téli nap” lenne? Ez ütemre ugyanolyan jó.

GÉP: Persze, de hát senki sem szeretné, ha egy téli naphoz hasonlítanák.

EMBER: Mondanál olyat, hogy Pickwick úr a karácsonyra emlékeztet téged?

GÉP: Bizonyos értelemben igen.

EMBER: A karácsony viszont egy téli nap, és én nem gondolom, hogy Pickwick úrnak ellenére lenne az összehasonlítás.

GÉP: Nem hiszem, hogy ezt komolyan gondolod. A téli nap alatt egy átlagos téli napot szokás érteni, nem pedig egy olyan különlegeset, mint a karácsony.

 
  --Turing

Azt ugyan elismeri Turing, hogy a tudatosság megmagyarázása nehéz kérdés, de tagadja, hogy bármi jelentősége is volna a mesterséges intelligencia gyakorlata számára: „Nem szeretném azt a benyomást kelteni, miszerint úgy gondolnám, hogy a tudatosságban ne volna semmi rejtélyes elem. (…) De nem gondolom azt, hogy ezeket a rejtélyeket meg kellene oldani ahhoz, hogy meg tudjuk válaszolni a cikkemben tárgyalt kérdéseket.” Egyetérthetünk Turinggal, hiszen az a fontos számunkra, hogy intelligensen viselkedő programokat készítsünk, nem pedig az, hogy mások azt vajon szimulált vagy valóságos intelligenciának tartják. Persze másfelől sok filozófusnak igencsak fontos ez a kérdés. Ezt megvilágítandó vegyük szemügyre, hogy más eseteken mennyire tartják valóságosnak az ember készítette tárgyakat.

A mesterséges karbamidot 1828-ban sikerült először előállítania Fredrick Wöhlernek. A szintézis fontosságát az adta, hogy bizonyítékot szolgáltatott a szerves és szervetlen kémia akkortájt sokak által vitatott egységére. A vegyület előállítása után a kémikusok egyetértettek abban, hogy a mesterséges karbamid valódi karbamid, hiszen az összes megfelelő fizikai jellemzőben megegyeznek. Ehhez hasonlít, hogy a mesterséges édesítőket ugyanúgy édesítőknek nevezzük, és a mesterséges megtermékenyítés (a mesterséges intelligencia másik módja) ugyanolyan megtermékenyítés. Azonban a mesterséges virágok nem virágok, és, amint Daniel Dennett rámutat, a mesterséges Chateau Latour bor sem lenne a különleges Chateau Latour francia bor, még akkor sem, ha kémiailag megkülönböztethetetlen volna, mivel nem a rögzített helyen (a francia Bordeaux-i borvidéken) és nem a rögzített módon készült. Ugyanígy egy mesterséges Picasso-festmény – akárhogy is néz ki – nem volna igazi Picasso-festmény.

Megállapíthatjuk tehát, hogy bizonyos esetekben az ember készítette tárgy viselkedése fontos, más esetekben pedig a származása. Úgy látszik, megállapodás kérdése, hogy melyik esetben melyiket tartjuk fontosnak. Mesterséges elmék esetében nincsen ilyen megállapodás, így az intuíciónkra kell hagyatkoznunk. Egy filozófus, John Searle (Searle, 1980), elég határozott intuícióval rendelkezik:

 

Senki sem gondolja, hogy egy vihar számítógépes szimulációjától eláznánk. (…) Mi visz rá tehát embereket annak feltételezésére, hogy a mentális folyamatok számítógépes szimulációja mentális folyamatokat mutatna fel?

 
  --(Searle, 1980) (37–38. oldal)

Könnyen elfogadható persze, hogy a viharok számítógépes szimulációi senkit sem áztatnak el, az azonban kevésbé látható, miként lenne alkalmazható ez az analógia a mentális folyamatok számítógépes szimulációira. Hiszen amikor Hollywoodban locsolók és szélgépek segítségével szimulálják a vihart, eláznak a színészek. A legtöbben határozottan összeadásnak tartják az összeadás számítógépes szimulációját, és a sakkjáték számítógépes szimulációja is sakkjáték. A mentális folyamatok vajon a viharokhoz hasonlíthatók-e, vagy inkább az összeadáshoz és a sakkhoz? Olyanok, mint a Chateau Latour bor és Picasso, vagy mint a karbamid? Ez teljes egészében azon múlik, hogy milyen elméletet vallunk a mentális állapotokról és folyamatokról.

A funkcionalizmus (functionalism) szerint a mentális állapotok köztes kauzális feltételek a bemenetek és a kimenetek között. A funkcionalista elmélet szerint ha két rendszer izomorf kauzális folyamatokkal rendelkezik, akkor ugyanazok a mentális állapotai is. Egy számítógépes programnak tehát ugyanolyan mentális állapotai lehetnek, mint egy embernek. Azt persze még nem határoztuk meg, hogy az „izomorf” pontosan mit jelent, de azt tételezzük fel, hogy létezik egy olyan absztrakciós szint, ami fölött nem számít a specifikus implementáció; és ha a folyamatok eddig a szintig izomorfak, akkor ugyanazok lesznek a mentális állapotok is.

Ezzel szemben a biológiai naturalizmus (biological naturalism) szerint a mentális állapotok magas szintű emergens tulajdonságok, amelyeket a neuronok alacsony szintű neurológiai folyamatai okoznak, azaz a neuronok (meghatározatlan) tulajdonságai a lényegesek. A mentális állapotokat így tehát nem lehet duplikálni valamilyen programmal, amelynek azonos a bemenet–kimenet funkcionális struktúrája, hanem az is szükséges, hogy a program olyan architektúrán fusson, amelynek kauzális erői megegyeznek a neuronokéval. Az elmélet nem mond semmit arról, hogy a neuronok miért rendelkeznek ilyen kauzális erővel, és arról sem, hogy más fizikai megtestesülések rendelkezhetnek-e ezekkel az erőkkel.

A két álláspont megvizsgálásához vegyük szemügyre először az elmefilozófia legrégibb problémáját, majd pedig három gondolatkísérletet.

26.2.1. A test–elme probléma

A test–elme probléma (mind–body problem) azt kérdezi, hogy a mentális állapotok és folyamatok miként kapcsolódnak a testi (specifikusan az agyi) állapotokhoz és folyamatokhoz. Ezt a kérdést, mintha nem lenne elég nehéz, általánosítani fogjuk az „architektúra–elme” problémává, hogy az elmével rendelkező gépek lehetőségéről beszélhessünk.

Egyáltalán mi a probléma a test–elme problémában? Az első nehézség René Descartes-ra vezethető vissza, aki egy nem halandó lélek interakcióját vizsgálta egy halandó testtel, és egy dualista (dualist) elméletet állított fel, miszerint a lélek és a test két különböző típusú dolog. A monista (monist), gyakran materialista (materialism) névvel is illetett elmélet szerint nincs olyan dolog, hogy halhatatlan lélek, hanem csupán az anyagi objektumok léteznek. Ennek megfelelően a mentális állapotok (mint például a fájdalom, a lovaglás tudata vagy az a meggyőződés, hogy Bécs Ausztria fővárosa) csupán agyállapotok. Ezt az elméletet John Searle egy tömör szlogenben foglalta össze: „Az agy okozza az elmét.”

A materialistának legalább két komoly ellenvetéssel kell szembesülnie. Az első a szabad akarat (free will) problémája: hogyan lehetséges, hogy egy tisztán fizikai elme, amelynek minden átalakulását szigorú fizikai törvények irányítják, mégis megőrzi a döntés szabadságát? A legtöbb filozófus szerint ez a probléma ahelyett, hogy a materializmusnak jelentene kihívást, inkább a szabad akaratról alkotott naiv fogalmunk gondos újraalkotását igényli. A második probléma a tudatosság (consciousness) általános témaköréhez kapcsolódik (a probléma hasonló, mint a megértés (understanding) és az öntudat (self-awareness) kérdései, habár nem teljesen ugyanarról van szó). A kérdés egyszerűen ez: miért van, hogy bizonyos agyállapotokkal rendelkezni valamiféle érzés, viszont másfajta fizikai állapotokkal rendelkezni (például sziklának lenni) feltehetően nem érzés.

Ahhoz, hogy elkezdhessük megválaszolni a kérdést, az agyállapotok egy olyan megfogalmazását kell megtalálni, amely absztraktabb szintű, mint az egy adott személy agyát alkotó atomok adott időpontbeli fizikai elhelyezkedése. Például miközben Ausztria fővárosára gondolok, agyam minden pikoszekundumban milliárd apró változáson megy keresztül, mégis ezek a változások nem jelentik az agyállapot kvalitatív változását. Ennek megfelelően be kell vezetnünk az agyállapot típusok fogalmát, amelynek segítségével elkülöníthetők a különböző típusba tartozó agyállapotok. Az egyes szerzők különbözőképpen értik a típus szót ebben az esetben. A legtöbbjük szerint, ha például veszünk egy agyat, és néhány szénatomját más szénatomra[279] cseréljük, a mentális állapot még nem változik meg. Ez azért örvendetes, mert valójában az agy atomjai az anyagcsere-folyamatok során állandóan cserélődnek, mégsem tűnik úgy, mintha ez nagy mentális felfordulást okozna.

Vegyük most szemügyre a mentális állapotok egy fajtáját, az intencionális állapotoknak (intentional states) is nevezett ítéletlogikai attitűdöket (propositional attitudes) (amelyekről már szó esett a 10. fejezetben). Ezek az állapotok – mint például a vélekedés, a tudás, a vágyakozás, a félelem és társai – olyanok, hogy bizonyos szempontból a külső világra utalnak. Az a vélekedés például, miszerint Bécs Ausztria fővárosa, egy bizonyos városra és annak státusára vonatkozó vélekedés. Azt fogjuk vizsgálni, hogy rendelkezhetnek-e a számítógépek intencionális állapotokkal, ezért hasznos áttekinteni ezen állapotok jellemzését. Azt is lehet mondani például, hogy az a mentális állapot, hogy egy hamburgerre vágyom, különbözik attól az állapottól, hogy egy pizzát szeretnék, hiszen a hamburger és a pizza a valódi világ különböző tárgyai. Másfelől viszont amellett érveltünk éppen néhány bekezdéssel korábban, hogy a mentális állapotok agyállapotok, tehát az azonosságukat meg kellene tudnunk határozni csupán „a fejen belül” maradva, minden hivatkozás nélkül a külső világra. A dilemma megoldásához vizsgáljunk meg egy olyan gondolatkísérletet, amely megpróbálja az intencionális állapotokat elkülöníteni a hozzájuk tartozó külső tárgyaktól.

26.2.2. Az „agy a tartályban” kísérlet

Képzeljük el – ha belebocsátkozunk ebbe a gondolatkísérletbe –, hogy az agyunkat születésünkkor kiveszik a testünkből, és egy csodálatos szerkezetű tartályba helyezik. Ez a tartály táplálja az agyat, lehetővé téve, hogy növekedjen és fejlődjön. Ugyanakkor azonban egy teljességgel kitalált világ számítógépes szimulációjának elektromos ingereit vezetik az agyba, az agy motorikus ingereit pedig elfogják, és hatásukra megfelelően módosítják a szimulációt.[280] Ekkor az agy rendelkezhet a HalálosanVágyik(Én, Hamburger) mentális állapottal, akkor is, ha nincs is teste, amely az éhséget érezné, ízlelőbimbói sincsenek, sőt talán egyáltalán nincs is hamburger a valódi világban. Azonosnak tekintjük-e ezt a mentális állapotot egy testben lévő agy megfelelő mentális állapotával?

Az egyik kiút a dilemmából annak megállapítása, hogy a mentális állapotok tartalma két különböző szempontból értelmezhető. A tág tartalom (wide content) nézet képviselői a mentális állapotok tartalmát a mindentudó külső megfigyelő szemszögéből értelmezik, amely megfigyelő átlátja az egész szituációt, és felismeri a világ különbségeit. Tehát a tág tartalom nézet szerint a tartályba helyezett agy vélekedései különbözők a „normál” személy vélekedéseitől. A szűk tartalom (narrow content) nézet szerint viszont csak a belső, szubjektív nézőpontot kell figyelembe venni, és szerintük a két vélekedés megegyezik.

Annak a vélekedésnek, hogy a hamburger ízletes, benső természete van: van valami, amihez az ilyen vélekedés hasonlít. Most már beléptünk a qualiák, a benső élmények birodalmába (a qualia szó a latin nyelvből származik, megközelítő jelentése: ’ilyen dolgok’). Tegyük fel, hogy a retina és az idegrendszer valamilyen sérülése folytán X személy úgy érzékeli a vörös színt, mint Y a zöldet, és vice versa. Ebben az esetben ugyanúgy látják a közlekedési lámpát, és ugyanúgy is cselekszenek, de tapasztalataik valamiképpen különbözni fognak. Mindketten elfogadhatják, hogy tapasztalatuk neve: „a lámpa vörös”, de tapasztalatuk különböző érzés lesz. Nem világos, hogy mit jelent ez a mentális állapotok megegyezését illetően. A következőkben egy olyan gondolatkísérlettel foglalkozunk, amely azt vizsgálja, hogy az emberi neuronokon kívül más fizikai tárgyaknak is lehetnek-e mentális állapotai.

26.2.3. Az agyprotézis-kísérlet

Az agyprotézis-kísérletet Clark Glymour vezette be a hetvenes évek közepén, majd John Searle (Searle, 1980) is finomított rajta, de manapság leginkább Hans Moravec (Moravec, 1988) munkásságával szokás összefüggésbe hozni. A kísérlet a következő. Tegyük fel, hogy a neurofiziológia eljutott odáig, hogy tökéletesen megértette az emberi agy összes neuronjának bemeneti–kimeneti jellemzőit és összekapcsolódását. Tegyük fel továbbá azt is, hogy képesek vagyunk olyan mikroszkopikus méretű elektronikus berendezéseket építeni, amelyek utánozni tudják ezeket a jellemzőket, és problémamentesen hozzáilleszthetők az idegszövethez. Végül pedig tegyük fel azt is, hogy valamilyen csodálatos sebészi technikával anélkül tudjuk az egyes neuronokat a megfelelő elektronikus eszközökkel helyettesíteni, hogy az agy egészében vett működése megszakadna. A kísérlet abból áll, hogy valaki fejében az összes neuront elektronikus eszközökkel helyettesítik, majd pedig a folyamat visszafordításával visszajuttatjuk az illetőt a normális biológiai állapotába.

A személynek mind a műtét során tanúsított külső viselkedése, mind belső tapasztalatai érdekelnek minket. A kísérlet alanyának külső viselkedésének definíció szerint változatlannak kell maradnia az operáció nélkül megfigyelhető viselkedéshez képest.[281] A kísérlet alanyának azonban egyben képesnek kell lennie arra, hogy – noha a tudatosság hiányát vagy jelenlétét egy harmadik személy nehezen állapíthatja meg – beszámolót adjon a tudatos tapasztalatát ért változásokról. A történtekre vonatkozó különböző intuícióink nyilván ellentmondanak egymásnak. Moravec szerint, aki robotkutató és funkcionalista, változatlan maradna a tudata. A filozófus és biológiai naturalista Searle azonban ugyanilyen erősen vallja, hogy a tudata eltűnne:

 

Azt fogod észrevenni – legnagyobb megdöbbenésedre –, hogy a külső viselkedésed irányítása mintegy kicsúszik a kezeid közül. Azt veszed észre, hogy például amikor az orvosok vizsgálják a látásodat, hallod őket, amint azt mondják: „Egy piros tárgyat tartunk ön előtt, kérjük, mondja el, mit lát.” Ez a kiáltás törne ki belőled: „Semmit sem látok. Teljesen megvakulok.” De hallod a saját hangodat, amint befolyásodtól teljesen függetlenül ezt mondja: „Egy vörös tárgyat látok magam előtt.” (…) Tudatos tapasztalatod lassan semmivé zsugorodik, de a külső, megfigyelhető viselkedésed változatlan marad.

 
  --(Searle, 1992)

Mindannyian csak intuíciónk alapján tudunk érvelni. Először vegyük észre, ahhoz, hogy a külső viselkedés változatlan maradjon, mialatt a kísérlet alanya fokozatosan elveszti a tudatát, az akaratnak egyik pillanatról a másikra hirtelen és teljesen kell eltűnnie; különben a tudat zsugorodása befolyásolná a külső viselkedést – például ilyesmi szavak hangzanának el: „Segítség, eltűnőben vagyok!” Elég valószínűtlenül hangzik azonban, hogy a neuronok egyenkénti lecserélése az akarat hirtelen, egyik lépésről a másikra történő teljes eltűnéséhez vezetne.

Másodszor pedig nézzük meg, mi történik akkor, ha a kísérlet alanyát az alatt az idő alatt kérdezzük tudatos tapasztalatairól, amikor egyetlen igazi neuron sincs jelen az agyában. A kísérlet feltétele szerint olyasféle válaszokat kell kapnunk, mint „Jól érzem magam. Meg kell mondanom, egy kicsit meg vagyok lepődve, hiszen elhittem, amit Searle mondott”. Vagy pedig egy mutatópálcával egy kicsit megszúrhatjuk a kísérleti alanyt és megfigyelhetjük válaszát: „Juj, ez fáj.” Viszont normál körülmények között a mesterséges intelligencia programok ilyen kimeneteit a szkeptikus elutasíthatja mint egyszerű látszatválaszokat. Hiszen elég könnyű elképzelni egy olyan szabályt, mint például: „Ha a 12-es szenzoron »Magas« érték jelenik meg, adj ki »Juj!-t«. A lényeg azonban az, hogy mivel a normál emberi agy összes funkcionális tulajdonságát átmásoltuk, feltételezhetjük, hogy elektronikus agyunk nem tartalmaz ilyen látszatválasz-mechanizmusokat. Azaz az elektronikus agy által létrehozott tudati megnyilvánulásokra olyan magyarázatot kell adnunk, amely csak a neuronok funkcionális tulajdonságaira hivatkozik. Ennek a magyarázatnak azonban a valós agyra is vonatkoznia kell, amelynek ugyanazok a funkcionális tulajdonságai. Ezért, úgy tűnik, kétfajta konklúzió lehetséges.

  1. A tudat kauzális mechanizmusai, amelyek ezt a kimenetet a normális agyban létrehozzák, ugyanúgy működnek az elektronikus változatban is, amely tehát tudatos.

  2. A normális agy tudatos mentális eseményeinek semmilyen kapcsolata nincs a viselkedéssel, valamint nincsenek is jelen ezek az események az elektronikus agyban, amely tehát nem tudatos.

A második lehetőséget ugyan nem zárhatjuk ki, de ez arra redukálná a tudatot, amit a filozófusok epifenomenális (epiphenomenal) szereplőnek neveznek: valami: ami megtörténik ugyan, de mintha nem is vetne árnyákot a megfigyelhető világban. Valamint ha a tudat tényleg epifenomén, akkor az agyban lennie kell egy második, nem tudatos mechanizmusnak, amelyhez a „Juj!” tartozik.

Harmadszor pedig tekintsük az operáció visszacsinálása utáni helyzetet, amikor a kísérlet alanyának ismét normális agya van. Emlékezzünk arra, hogy a definíció szerint a kísérleti alany külső viselkedésének olyannak kell lennie, mintha az operáció nem is történt volna meg. Ennek speciális eseteként fel kell tudnunk tenni azt a kérdést: „Milyen volt az operáció alatt? Emlékszik a mutatópálcára?” A kísérleti alanynak pontos emléknyomokkal kell rendelkeznie a tudatos tapasztalatai tényleges természetéről, beleértve a qualiát is; mindannak ellenére, hogy Searle szerint nem is voltak ilyen tapasztalatai.

Searle talán azzal válaszolna, hogy nem jól definiáltuk a kísérletet. Ha a valódi neuronokat visszahelyezésükkor úgy keltjük életre, ami az eltávolításuk óta eltelt időt nem tükrözi, akkor természetesen nem fognak „emlékezni” az operáció alatti tapasztalatokra. Hogy erre az eshetőségre is felkészüljünk, a visszahelyezéskor a mesterséges neuronok belső állapotának megfelelően módosítanunk kell az őket helyettesítő neuronok állapotát. Ha a valódi neuronok feltételezett „nem funkcionális” aspektusai ekkor egy olyan viselkedést eredményeznének, amely funkcionálisan különbözik attól, mint amely a mesterséges neuronok bent hagyásával megfigyelhető lenne, akkor reductio ad absurdumhoz jutnánk, mert ez azt jelenti, hogy a mesterséges neuronok funkcionálisan nem ekvivalensek a valódi neuronokkal. (A 26.3. feladat egy lehetséges utat mutat ezen érv cáfolatára.)

Patricia Churchland (Churchland, 1986) rámutat arra, hogy ha a funkcionalista érv működik a neuronok szintjén, akkor működnie kell bármely nagyobb funkcionális egység szintjén is, legyen az akár neuronok egy halmaza, egy mentális modul, egy lebeny, egy agyfélteke vagy akár az egész agy. Ezek szerint ha elfogadjuk, hogy az agyprotézis kísérlet tanulsága a tudat megmaradása az agy kicserélése során, akkor azt is el kell fogadnunk, hogy a tudat akkor is megmarad, ha az egész agyat lecserélik egy áramkörre, amely csak annyit tesz, hogy a bemenetekhez tartozó kimeneteteket visszakeresi egy óriási táblázatban. Ez zavarba hozza a legtöbb embert (beleértve magát Turingot is), akik intuíciója szerint a visszakereső táblák nem tudatosak, vagy legalábbis az általuk generált tudati tapasztalatok nem azonosak azokkal a tapasztalatokkal, amelyeket egy olyan rendszer generálna, amit le lehetne írni úgy (akár csak az egyszerűen vett számítási értelemben), mint ami hiedelmeket, önismeretet, célokat és hasonlókat tart nyilván és hoz létre. Mindez sugallja, hogy ha meg akarjuk őrizni az agyprotézis-kísérletet mint az intuíciónkat vezérlő segédeszközt, akkor nem folyamodhatunk az agy egy lépésben történő lecseréléséhez, de azt nem jelenti, hogy kénytelenek lennénk a lépésenkénti neuroncseréhez folyamodni, amit Searle szeretne velünk elérni.

26.2.4. A kínai szoba

Legutolsó gondolatkísérletünk valószínűleg egyben a leghíresebb is. John Searle (Searle, 1980) gondolta ki, és egy olyan hipotetikus rendszert ír le, amely látnivalóan egy programot futtat, és megfelel a Turing-teszten; de ugyanilyen világos az is (legalábbis Searle szerint), hogy semmit sem ért meg a bemenetei és kimenetei közül. Konklúziója szerint tehát a megfelelő program futtatása (azaz a megfelelő válaszok megléte) önmagában még nem elégséges feltétele az elmemivoltnak.

A rendszer egy csak angolul értő emberből áll, akinek egy angol nyelven írt szabálykönyve és többfajta papírhalmaza van, melyek közül némely papírhalmaz üres, némelyen pedig valamilyen érthetetlen jelsorozat áll. (Tehát az ember a CPU szerepét játssza, a szabálykönyv a programnak, a papírhalmazok pedig a tárolóeszköznek felelnek meg.) A rendszer egy szobában található, amelynek csak egy kis nyílása van a külvilágra. Ezen a nyíláson keresztül érthetetlen feliratú papírcetlik jelennek meg. Az ember megtalálja a szabálykönyvben ezeket a szimbólumokat, és követi az ott leírtakat. Az utasítások között szerepelhet, hogy írjon le szimbólumokat új papírcédulákra, keressen szimbólumokat a papírhalmazokban, rendezze át a halmazokat és hasonlók. Végül, az utasítások következményeként, egy vagy több szimbólumot egy papírdarabra másol, és kiadja a külvilágba.

Fontos

Eddig minden könnyen követhető. De kívülről nézve azt látjuk, hogy a rendszer kínai mondatokat fogad, kínai mondatokat ad vissza, és ez a párbeszéd nyilvánvalóan éppannyira intelligens, mint amit Turing elképzelt.[282] Searle ennek alapján így érvel: a szobában lévő személy nem ért kínaiul (ez adott). A szabálykönyv és a papírcetlik, lévén ezek csak papírok, szintén nem értenek kínaiul. Ebből az következik, hogy a kínai nyelv semmiféle megértése nem zajlik le. Tehát Searle szerint a megfelelő program futtatása nem vezet szükségszerűen a megértéshez.

Turinghoz hasonlóan Searle is megvizsgált néhány lehetséges ellenvetést az érvével szemben, és meg is próbálta visszautasítani ezeket. Több kommentátor, köztük John McCarthy és Robert Wilensky, azt hozta fel, amit Searle rendszerválasznak nevez. Az ellenvetés abban áll, hogy ugyan feltehető az a kérdés, miszerint a szobában lévő személy ért-e kínaiul, de ez olyan, mint ha azt kérdeznénk, hogy a CPU tud-e köbgyököt vonni. Mindkét esetben nemmel kell felelnünk, de mindkét esetben – állítják a rendszerválasz hívei – a rendszer egésze igenis rendelkezik a kérdéses képességgel. Az biztos, hogy ha megkérdezzük a kínai szobát, ért-e kínaiul, a válasz igenlő lesz (méghozzá folyékony kínaisággal). Turing udvarias feltételezése szerint ennyi elegendő is. Válaszában Searle ismételten rámutat arra, hogy sem az ember, sem a papírhalmaz nem tud kínaiul, tehát semmilyen kínaiul értés sem lehetséges. Továbbá hozzáteszi, az is elképzelhető, hogy az ember megtanulja a szabálykönyvet, és a cetlik tartalmát is a fejében tartja, tehát csupán az ember az, aki kínaiul tudhatna, ha azonban megkérdezzük őt (angolul), akkor a válasza nemleges lesz.

Most már a lényegi kérdésnél vagyunk. A papírok tartalmának memorizálása csak elterelő hadművelet, hiszen mindkettő ugyanúgy egy futó program fizikai megtestesülése. Searle igazi állítása a következő négy axiómán alapszik (Searle, 1990):

  1. A számítógépprogramok formális, szintaktikai entitások.

  2. Az elmének mentális tartalma, azaz szemantikája van.

  3. A szintaktika önmagában még nem elégséges a szemantikához.

  4. Az elmét az agy okozza.

Az első három axiómából arra a következtetésre jut, hogy a programok nem elégségesek az elméhez. Másként megfogalmazva: ugyan lehet elme egy programot futtató ágens, de nem lesz szükségszerűen elme csupán a program futtatása miatt. A negyedik axiómából pedig arra a következtetésre jut, hogy „bármely más rendszernek, amely képes elmét okozni, az aggyal (legalább) megegyező kauzális erőkkel kell rendelkeznie”. Ebből pedig arra jut, hogy bármely mesterséges agynak nem elég csupán egy adott programot futtatni, hanem duplikálnia kell az agy kauzális erőit, valamint hogy az emberi agy a mentális jelenségeket nem csupán egy program futtatása révén hozza létre.

Az a végkövetkeztetés, hogy az elmékhez nem elégségesek a programok, igenis következik az axiómákból (amennyiben elég nagyvonalúan értelmezzük azokat). De a konklúzió nem elégít ki bennünket: Searle csupán azt bizonyította be, hogy ha kifejezetten elutasítjuk a funkcionalizmust (ahogy ezt a 3. axiómájával teszi), akkor nem lehet szükségszerűen állítani azt, hogy a nem-agyak is elmék volnának. Ez teljesen elfogadható, így hát az egész érv arra jut, hogy elfogadható-e a 3. axióma. Searle szerint a kínai szoba érvek éppen az a lényege, hogy intuíciót ad a 3. axióma elfogadásához. De az érvére adott reakciók azt mutatják, hogy csak azoknak nyújt intuitív alapot, akik már eleve hajlanak annak elfogadására, hogy a programok önmagukban nem hozhatnak létre igazi megértést.

Megismételve tehát, a kínai szoba érv célja az, hogy megcáfolja az erős MI-hipotézist: azt az állítást, miszerint a helyes változatú program futtatása szükségszerűen elmét eredményez. Úgy működik az érv, hogy bemutat egy látszólag intelligens, a megfelelő típusú programot futtató rendszert, amely Searle szerint bizonyíthatóan nem elme. Ennél a résznél azonban Searle az intuícióra és nem egy bizonyítékra támaszkodik: nézzük csak a szobát, hol lenne itt az elme? De ez az érv ugyanúgy felhozható az aggyal kapcsolatban is: nézzünk rá a sejtek (vagy az atomok) sokaságára, amelyek vakon működnek a biokémia (vagy a fizika) törvényei szerint – hol lenne itt az elme? Miért tud egy nagy darab agy elme lenni, amikor egy nagy darab máj nem?

Továbbmenve, amikor Searle beismeri, hogy elméletileg a neuronoktól különböző anyag is lehet elme, akkor két okból is tovább gyengül az érve: egyrészt csak Searle intuícióira (vagy a saját intuíciónkra), támaszkodhatunk, hogy eldöntsük, elme-e a kínai szoba; másrészt, még ha úgy is döntünk, hogy a szoba nem elme, ez semmit nem mond arról, hogy a programot futtató más fizikai közeg (például a számítógép) lehet-e elme.

Searle megengedi azt a logikai lehetőséget, hogy az agy éppenséggel egy hagyományos típusú logikai programot valósít meg; de ugyanazt a programot egy rosszfajta gépen futtatva nem kapnánk elmét. Searle tagadja, hogy azt gondolná, „a gépeknek nem lehet elméje”, sőt azt állítja, hogy bizonyos gépeknek igenis van elméje: az emberek elmével rendelkező biológiai gépek. Nem hagy azonban túl sok útmutatást afelől, hogy az elmével rendelkezés a gépek milyen csoportjára terjed ki.



[279] Esetleg a szénatom más izotópjára, ahogyan ez az agyi képalkotó vizsgálatok során gyakran történik.

[280] Ez a helyzet ismerős lehet azoknak, akik látták az 1999-ben készült Mátrix (The Matrix) c. filmet.

[281] El tudunk képzelni egy azonos kontrollszemélyt, akin egy placebooperációt hajtanak végre, hogy a két viselkedést összevethessék.

[282] Az, hogy a papírhalmaz talán nagyobb, mint az egész bolygó, és hogy a válaszok létrehozása millió évekig eltarthat, az érv logikai struktúráját nem érinti. A filozófiai képzés egyik célja éppen az, hogy kialakuljon egy kifinomult érzék, amellyel különválaszthatók a releváns és az irreleváns ellenvetések.