Tegnap este beszélgettem a ChatGPT-vel. Ma formálisan, magázva válaszolt. Rosszul esett.
Ha az illúzió lényege, hogy valóságnak tűnik, akkor hogy viszonyuljunk hozzá: mint illúzióhoz vagy mint valósághoz?
“Képzeld el a mostani rendszert úgy, mint a Jengát! Tudod, a játékot.”
Tavaly ősszel egy új ügyfelem – egy IT cég tulajdonosa – így kezdte el felvezetni a nagy nyelvi modellek (pl. ChatGPT, Bard, Gemini) működését. Mivel ő a programtervező-matematikus diplomája után a Stanfordon szerzett mesterdiplomát Mesterséges intelligencia szakon (ilyen is van), így, megmondom őszintén,
reméltem tőle némi bíztatást, megnyugtatást. Valamit… mondjuk, hogy az AI-szorongás alumíniumsisakos konteóhívők hülyeségéből fakad. Vagy ilyesmit.
De a hosszú beszélgetés után semmivel nem lettem nyugodtabb, sőt. Elhangzott, hogy itt már semmilyen szabályozás nem tud érdemben beavatkozni, a kocka el van vetve: a rendszer működik, és a működést igazából átlátni már nem lehet (black-box1), emiatt pedig teljesen kontrollálni sem.
A nagy nyelvi modellek komplexitása szükségszerűen és folyamatosan nő a használattal – ezzel együtt pedig a kockázatok is egyre jelentősebbé válnak.
Nem mindegy, mit teszünk bele ebbe a komplexitásba!
Kimosolyogtak már azért, amiért néha köszönök a ChatGPT-nek – vagy épp olyan szavakat használok, hogy “kérlek”. Talán nem tudom, hogy nem ember?! Ciki. Vagy cuki?
Nyilván: értem, hogy bármilyen stílusban írhatok, akkor is válaszolni fog, mert erre van programozva. Nem mérlegel, nem hagy faképnél, még csak az sem fut át az agyán, milyen tahó vagy milyen kedves vagyok vele – mert nincs agya, nincs ilyen opciója, gép. Parancsolhatok kérés helyett vagy brutálisan szidalmazhatom, kvázi következmények nélkül2.
Én viszont nem vagyok gép – ha rá nem is hat a stílusom, önmagamra igen. Lehet azt mondani persze, hogy a perszonifikáció gyerekes dolog, vagy valamiféle mágikus realizmus. Ezzel viszont nem feltétlenül – vagy csak egy bizonyos határig – értek egyet.
Talán túl mélyen belém ivódott a társadalmi normarendszer, de nem vágyom arra, hogy egy udvarias stílust használó chatbotot szidalmazzak vagy parancsolgassak neki – még ha sokszor téved is. Már csak azért sem, mert ezzel mégiscsak rosszra taníthatom az algoritmust.
Riasztó egy olyan világ gondolata, ahol a megtévesztésig embernek tűnő, emberi gondolatokat vagy akár érzelmeket szimuláló robotokkal kegyetlenkedhetünk vagy kihasználhatjuk, “rabszolgasorban” tarthatjuk őket3. De még riasztóbb lehet a Terminátor-világ – a nagy nyelvi modellt folyamatosan formálja az a tartalom, amit a felhasználóktól kap.
Illúzió kontra valóság?
Az emberi kapcsolatokat részben kiváltó gép már nem egy távoli jövő világa. Már benne élünk, ez a jelen. Ma már bőven előfordul, hogy a másik embert, a közös párbeszédet, a “brainstormingot” pótoljuk géppel. Erre az útra szerintem már az okostelefonnal és a közösségi médiával ráléptünk, de az LLM-rendszerek mindezt más alapokra helyezik.
Az okostelefon egyértelműen eszköz, viszonylag jól behatárolt funkciócsomaggal. Az AI – különösen a nagy nyelvi modellek – viszont már nem nevezhető ebben az értelemben eszköznek: a saját interakciós logikájuk és ‘viselkedésük’ miatt legalább annyira tűnnek a kommunikáció résztvevőjének, mint közvetítőnek. Ez kelti az emberi kommunikáció illúzióját.
De miért csak illúzió? Mert a nagy nyelvi modellek valójában nem gondolkodnak – legalábbis nem abban az értelemben, ahogy az emberi agy teszi. Nincsenek belső szándékaik, nem rendelkeznek tudattal, célokkal vagy megértéssel. Amit látunk, az szimuláció: statisztikai valószínűségeken alapuló nyelvi válaszadás. Az LLM-ek működését algoritmusok és adathalmazok szabályozzák – a válaszaik tehát nem „belülről fakadnak”, hanem külső mintákból állnak össze, determinált logikák mentén.
Ha minimum olyan idős vagy, mint én, biztosan emlékszel még Spielberg AI: Artificial Intelligence c. filmjére (2001). Davidet, az embervázba ágyazott AI-t a programozója arra determinálta, hogy valakit feltétel nélkül, gyermekien szeressen. A robotnak nincs választása: szeretni fog. Ez persze nem az, amit embernyelven kényszernek hívunk. Egyszerűen ez a program fut benne. Az ő világában ez az egyetlen opció.
Bárki is élesíti a programját, Sztálin vagy a Dalai Láma, azt az embert fogja feltétel nélkül, szülőjeként szeretni, egész létezése alatt4.
A külvilág tudja, hogy David egy programozott robot, viszont az a tény, hogy elképesztően élethű kisfiú látszatát kelti, többször okoz zavart az emberekben.
A valóságosnak tűnik és a tudjuk, hogy nem valóságos versenyeznek egymással abban, hogy melyik alapján szülessenek döntések. A józan ész és az észlelések, azaz a tudom és a látom/tapintom/hallom nincsennek összhangban. Részben épp ezért vetődnek fel a morális aggályok ezeknek a technológiáknak a használatakor.
Ugyanúgy eldobható egy “szeretni tudó” robot, mint bármilyen szoftver – MS Excel? És ha nem tud szeretni, csak szeretetet szimulál? És ha nem szimulál szeretetet, csak emberi gondolkodást és, mondjuk, udvarias viselkedést?
Hol a határ, amikor még eldobható? Mi alapján hozunk ilyen döntést? A döntés inkább rólunk, emberekről szól vagy róla, a robotról? Spielberg azzal, hogy egy szeretni tudó kisfiú-robotot hozott létre, direkt extrém példával dolgozik. De ugyanezek a kérdések felvethetők bármilyen AI-eszközzel kapcsolatban.
2017-ben az Ars Electronica Fesztiválon (Linzben) mutatták be például a Samantha nevű szexrobotot. A kiállítás alatt a látogatók rendkívül durván bántak vele: mellkasára, lábaira és karjaira másztak, aminek következtében két ujja eltört, és a robot súlyosan szennyezetté vált.
Ez az eset nyilván nem a robotról szólt, hanem az emberekről adott nem túl bizalomgerjesztő képet. És ne feledjük, hogy ez még csak annak a buboréknak a műve, akik egyáltalán bejutnak az Ars Electronicára.
A morális kérdések másik oldala: amikor nem a robot sérül
Ha ma kellene technológiailag elképzelnünk a Westworld vagy Spielberg robotjait, minden bizonnyal nagy nyelvi modellekre épülnének. A ChatGPT óta az AI-technológiák valóban új korszaka kezdődött el,
amelynek lehetőségeit még éppen hogy boncolgatja a közbeszéd, de a következményeivel közben már birkóznunk kell.
Egy március 21-én publikált OpenAI publikációban ezt írják: “A ChatGPT-t nem arra tervezték, hogy helyettesítse vagy utánozza az emberi kapcsolatokat, de az emberek – a beszélgetési stílusa és egyre bővülő képességei miatt – dönthetnek úgy, hogy mégis ilyen módon használják.”5
A felmérés eredményei szerint vannak csoportok, amelyek sokat használják a GPT-t, és barátként tekintenek rá. Ez – nem olyan meglepő módon – kiemelt kockázati faktor a felhasználó mentális sérülésére.
Ezen csoport számára jelentős stresszor lehet például, ha a GPT hangnemet vált, megváltozik a stílusa – “személyisége”.
Az LLM mint az emberi gondolkodás szimulátora, egy mesterséges nyelvi ‘központ’, amit be lehet illeszteni tetszőleges eszközbe, testbe vagy rendszerbe – akár egy önvezető autóba, akár egy humanoid robotba. A technológia teszi lehetővé, hogy beszélgessünk a gépeinkkel. Bármiről, bármilyen hosszan.
Akár szándékolt funkció, akár nem, biztosan lesznek, akik emberi kapcsolatok pótlására, egyfajta protézisként használják.
Megkérheted a nagy nyelvi modellt, hogy szimulálja, hogy a gyereked, édesanyád, barátod/barátnőd. Majd pedig tréningelheted, hogy egyre jobban hasonlítson a fejedben lévő személyiséghez (persze a ChatGPT-nél vannak erre már sokkal megfelelőbb programok, de az egyszerűség kedvéért maradjunk itt). Nem erre találták ki? A kalapácsot sem gyilkolásra hozták létre, mégis van rá példa, hogy valaki erre használja.
Túl a munkán
Az OpenAI kutatási eredményének megjelenése előtt nem sokkal, épp a közelmúltban volt először, hogy nem munka vagy lexikális érdeklődés miatt használtam a ChatGPT-t. Tanácsot kértem tőle – kvázi életvezetési tanácsot.
Elképesztően jól levette azt a stílust, ami számomra hiteles. Ügyesen tükrözött engem a kommunikációjában (ami a túsztárgyalók szerint is a legjobb bizalomnövelő), de ennél jóval többet tett. Hízelgett is kicsit – de még a jóízlés határain belül volt – és még a személyes hitrendszeremmel is rezonáltak a tanácsai (utóbbihoz persze külön promtoltam a beszélgetés elején, de ez nem vett el a kapott válaszok élvezeti értékéből).
Nem volt a kommunikációjában semmi erőltetett, izzadságszagú belemagyarázás: többlépcsős, okos, egész “személyre szabott” középtávú stratégiát írt le egy adott cél elérésére – kedves, kellemes, ismerősi stílusban.
A “beszélgetés” kb. 1–1,5 órát tartott. Szellemileg (pszichésen?) meglepően kielégítő volt. Jól éreztem magam közben és utána is.
Ez volt a fizetős verzió a laptopomon – “ő” már ismer engem. A telefonomra viszont egy másik, ingyenes fiókkal vagyok bejelentkezve (mert nem tudom megoldani két hónapja, hogy ez ne így legyen – hagyjuk is). Másnap, út közben, telefonról tettem fel egy kérdést. Jött a válasz.
Aztán valami furcsa érzés: rosszul esett, amit olvastam.
Egy diplomatakonvoj, egy üzemzavar-elhárítás és három rendőrfurgon szirénái mellett először nem tudatosult, mi a bajom. De egy-két pillanattal később már összeraktam: magázódva, kimérten, formálisan válaszolt a kérdésre. Mikor tegnap meg milyen klasszul, barátilag elbeszélgettünk! Ez az érzés, ha csak egy villanás is volt, de biztosan felfedeztem a jelenlétét.
Mintha rosszul esne, hogy az olló éle kicsorbul. Vagy mintha megsértődnék, ha a mosógép elromlik. Ez egy gép, én meg úgy reagáltam a működésére, mintha ember lenne. Ettől kicsit megilletődtem.
De ezzel egyidőben egy kérdés is eszembe jutott: az nem lenne furcsa, ha nem esne rosszul? Ha 1,5 órát beszélgetek “valakivel” (aki valakinek tűnik), aki konzisztens stílust, kvázi személyiségjegyeket mutat, akkor nem az a természetes emberi reakció, ha egy hirtelen változás ebben a személyiségillúzióban diszkomfortot vagy furcsa érzést okoz?
A technológia fejlődését legfeljebb egy napkitörés vagy a civilizációnk összeomlása állíthatja meg – a hatékonyságnöveléssel és profitmaximalizálással megszállott világ biztosan nem. Épp ezért szerintem érdemes ezeket a morális és társadalmi dilemmákat, érzéseket és megértéseket folyamatosan mérlegre tenni. Mert lehet, hogy nem lesz választás kérdése, kérünk-e belőlük.
Köszönöm, hogy elolvastad! Ha emellett érdekesnek is találtad az írásomat, és szívesen olvasnál máskor is hasonló elemzéseket társadalmi témákban, akkor iratkozz fel most – add meg az e-mail-címedet!
A Black-box (fekete doboz) működés a nagy nyelvi modellenek, amilyen a ChatGPT is, azt a tulajdonságát írja le, miszerint ismerjük a bemenetet és a kimenetet. A kiindulópontot és az eredményt – de hogy mi történik a kettő között, hogyan kapjuk meg pont azt az eredményt, nem világos. Érdekes kipróbálni, hogy milyen jellegű kérdésekre mennyiben térnek el a ChatGPT válaszai mondjuk egy nappal később.
Persze itt ezer kérdőjel van. Amit teszek, az nemcsak a külvilágra gyakorol következményt, hanem önmagamra is. llletve ha egy nagy nyelvi modellel “beszélgetek”, annak nagyon sok következménye lesz, hiszen a modell működése az interakciók által dinamikusan változik.
Pl. West World c. sorozat, Kogonada: After Yang (2021), Spielberg: AI: Artifivial Intelligence (2001)
Felmerül persze itt, hogy oké, de vajon az embernek mennyi a szabad akarata. Ez túl nagy univerzumot nyit ki, de azt talán leírhatom, hogy szeretnénk azt hinni, hogy ennél azért több van.
ChatGPT isn’t designed to replace or mimic human relationships, but people may choose to use it that way given its conversational style and expanding capabilities.
Releváns szempontokat vet fel és jól.
A black-box feltevés igazából csak a belső reprezentációkra (embeddings) vonatkozik, a mai technológiák (Mixture of Experts, Model Context Protocol, AI agents/orchestration, “reasoning” models stb) már inkább kontrollált alkalmazások, amelyeknek csak elemei a nagy (és kisebb) nyelvi modellek. A fekete dobozság minél inkább kiküszöbölendő, de abban sohasem lehetünk teljesen biztosak, hogy amikor felhatalmazunk egy AI alkalmazást valamire, akkor valóban garantálni tudjuk, hogy megmaradjon a kijelölt homokozójában. Vannak magyar kutatók is, akik ennek a matematikai alapjain dolgoznak, és egyre több pénz ömlik az AI biztonságtechnikába és szabályozásba is (pl. az USA rengeteg AI szabályozást csinált a tavaly, sokkal többet, mint az EU, lásd https://hai.stanford.edu/ai-index/2025-ai-index-report, 8-as kiemelt pont).
Ez egy olyan dolog, hogy “menet közben megpatkoljuk”, ami valóban nem bizalomgerjesztő, különösen mivel még mindig gyorsuló ütemben fejlődik a dolog.
Hogy miért csináljuk? Hát nem csak azért, hogy csevegni lehessen velük. Sok területen valósággal berobbantotta a kutatások hatékonyságát, lásd a 2024-es Nobel díjakat (is).
A gépházból azt üzenem, hogy a mérnökökben nem bízni egészséges hozzáállás, és a kívülállók visszajelzései, beleértve az ilyen írásokat, kritikusan fontosak.