Karen Hao könyve oda üt, ahol az "AI"-nak fáj. De érdekel ez valakit? I.
Karen Hao: The Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI. Penguin Press. 2025.
Annyi minden van az AI-világban, hogy csak na. Hao könyvében pedig nagyjából minden fel is merül, ami felmerülhet. Ha valaki a szilícium-völgyi összefonódások, startup-ízlésformálók, mentorok és mentoráltak, na meg a nem kicsit agresszív, erősen profitorientált mentalitáson szeretne elmeditálni, kap rá lehetőséget rögtön a könyv elején.
Ha valaki inkább a pszichológiai drámákban vagy karakterisztikákban mélyedne el, szintén találhat érdekességeket. Leginkább Sam Altman karakterét, aki maga nem beszélgetett Haoval, de akiről rengeteg szó van, így sejtelmes szellemként vonul végig a 420 oldalon.
Ugyanakkor szerintem érdemes Altman személyiségéről, Altman családi drámájáról, szomorú sorsú húgáról, Annieről vagy a szilícium-völgyi iroda- és munkáltatói trendekről kizoomolni egy kicsit. Mégpedig az elmúlt évtized(ek) változásaira a világban, a tech-kapitalizmusra és a technooptimizmusra.
Úgy döntöttem, hogy nem követem le a könyv tartalmi szerkezetét, nem fejezetenként haladok előre, inkább kiemelt kulcsszavak mentén.1
A könyvben feltárt összefüggések, főbb kulcsszavak
Hao tömérdek információt gyűjtött (300 interjú kb. 260 emberrel), rendszerezett és mesélt el. Mint minden rendszerezés és értelmezés esetében, itt is kialakul egy jól látható narratíva, amely alapvetően inkább nem kedvez sem Sam Altman, sem az OpenAI imidzsének.
1. Sam Altman
A könyv elején nem teljesen értettem még, miért van ez az egész ennyire kihegyezve egyetlen személy (Altman) és egyetlen AI-fejlesztő szereplő (OpenAI) köré.
De annyiban, amennyiben gyakorlatilag Altman személye, az ábrándjai, tervei, kommunikációja, illetve cége, az OpenAI diktálják az egyébként őrült tempót és a járt-járandó utat minden piaci szereplő és a világ számára, tulajdonképpen már értem.
Altman, Hao beszámolója alapján okos, karizmatikus és manipulatív. De mégis kire nem igaz mindez, aki a Szilícium-völgyben ilyen tőkebevonást vitt véghez, mint anno ő és Musk az OpenAI nonprofit kutatásaira; egy full üres, felhőben lebegő (vagyis még ott sem), alaktalan ígéretére, az AGI-ra, szuperintelligenciára.
A befektetői FoMO, Musk személye (és persze Peter Thiel) lendítették oda Altmant, ahol most van, de tény: szépen meg tudott tapadni, hozza, amit kell. Ennél többet én nem foglalkoznék a személyiségének és rejtett motivációinak boncolgatásával.
2. AGI (Artificial General Intelligence) = Szuperintelligencia = Fenyegetés és a megváltás ígérete
Altman AGI-ban, szuperintelligenciában való hite, az már említésre méltó. Annál is inkább, mert éppen úgy beszél róla, ahogy azt már a 20. században több nagy ideológia hirdetőjénél is láthattuk: most áldozatokat kell hoznunk, hogy a jövőben eljöhessen a földi Paradicsom.
A szuperintelligencia az ugye a tudatra ébredt AI, amely/aki az emberi intelligenciának a sok-sokszorosával rendelkezik – aki látott életében már legalább két sci-fit, vagy csak a Terminátort, az nagy eséllyel tudja, miről van szó. Altmanék ezt úgy képzelik el, hogy ha elég adatot kapnak a generatív AI datacenterei, akkor előbb-utóbb egy emergens tulajdonságként megjelenik a tudat. Az AI tudatra ébred. Narratívájuk szerint ez lehet az emberiségnek nagyon jó és nagyon rossz hír is.
Altman és Greg Brockman (az OpenAI társalapítója és jelenlegi elnöke) gyakran hozzák példának, hogy az AGI-val minden betegség gyógyítható lesz, a szuperintelligencia a kímaváltozást is “megoldja” majd, valamint Altman alapjövedelmet, UBI-t (universal basic income) is emleget, ezzel párhuzamosan pedig elképesztően jó munkahelyeket.
Ezeknél a lózungoknál közelebb sajnos nem jutunk a jövőnkhöz, mert ugye nem juthatunk, hiszen ugye még nincs AGI – nem tudhatjuk, milyen is lesz. Ami biztos, hogy előbb tehát még jönnek az áldozatok – mind a munkavállalók, mind a globális dél országai, mind a természeti környezet oldaláról.
Tehát, a recept a jövő boldogságához, úgy tűnik, ez: jelenleg elvesszük a huszonévesek munkáját “AI”-val; jelenleg elképesztő energiát használunk fel az “AI” táplálására; jelenleg vannak helyek, ahol az ivóvízbe már szennyvizet kevernek vissza, hogy az “AI” hűtésére legyen elég friss, tiszta víz, amitől nem hibásodik meg; jelenleg emberek kizsákmányolásával nyerik ki a tréningre alkalmas adatokból a nem megfelelőt; és olyan sebességgel skálázunk, hogy sorra mondanak fel a biztonságiak (nem a fegyveres őrökre gondolok) az OpenAI-nál – de ha majd eljön az AGI, akkor elmondhatjuk, hogy ez mind megérte. És ma ez a progresszív hozzáállás a világhoz. A technooptimizmus.
3. OpenAI
Altman többedmagával – Elon Musk, Ilya Sutskever, Greg Brockman – az OpenAI-t 2015-ben nonprofit szervezetként hozta létre. A szervezet bevallott célja a föld, az emberiség megmentése volt a szerintük előbb-utóbb mindenképpen tudatra ébredő szuperintelligenciától. Mégpedig úgy, hogy az élére állnak a kutatásoknak és ők maguk hozzák létre az AGI-t.
Akkor legfőképpen a Google DeepMind kutatását és a mögötte álló Demis Hassabist látták fenyegető elemnek, utóbbit Musk egyenesen “szupergonosznak” titulálta.
Ma Altman, jó politikusként, többet beszél már a kínai fenyegetésről, mint a Google-ről, főleg, ha az amerikai Kongresszust kell meggyőznie az AI-szabályozások ártalmasságáról.
4. Nonprofit vagy for profit?
Igaz, hogy az OpenAI nonprofitnak indult és sokáig így is futott. Az önzetlen, világjobbító, vagy épp emberiséget védő célhoz ez illett.
Ugyanakkor, ahogy a ChatGPT egy-két nap alatt berobbant a világ köztudatába és a letöltések száma döbbenetbe ejtette az OpenAI vezetőségét is, változtak a dolgok. A számok bűvkörébe kerülve, 2023-ban megjelent a fizetős “háztartási” verzió, majd kicsit később az API is (üzleti felhasználásra), azóta pedig egyik új modell a másik után.
5. ChatGPT, a chatbot – Az AGI, szuperintelligencia marketingje
A “Dreams of Modernity” című fejezetben Hao ad egy kis történeti betekintést az AI-kutatásba. A terület kulcs kérdése ez volt: Can machines think? Azaz, tudnak-e a gépek gondolkodni. Interdiszciplináris terület, amelyet az egyik kutató javaslatára majdnem “automatic studies”-nak neveztek el az 50-es években.
Szerencsére a kutatók között volt olyan is, aki rendelkezdett egy kis marketingérzékkel, és végül az automatic studies helyett az “artificial intelligence” nyert.
Természetesen a “mesterségesintelligencia-kutatás”, ahogy tehát a területet végül elnevezték, nem volt más, mint elmés marketingfogás.
Például, hogyan lehet azt kutatni vagy rekonstruálni, aminek definíciójáról abszolúte semmilyen közmegegyezés nincs (az “intelligencia” egy súlyosan terhelt fogalom, amelyet, ahogy Hao is rávilágít, többek közt fajelmélészek találtak ki és használtak az előző évezred elején, hogy bizonyítsák a fehér faj felsőbbrendűségét – persze csupa adathamisítással, mint később kiderült).
Akárhogy is, a mesterséges intelligencia fogalmának és tudományterületének megszületésével visszavonhatatlanul elkezdődött a gépek antropomorfizációja, amiből mára hatalmas üzletág épült.
Hao egyik legfőbb állítása, hogy a ChatGPT legnagyobb varázsereje nem maga a technológia, hanem a chatbot-jelleg. A varázslat pedig itt sok-sok tőkebevonást és hatékony marketinget jelent.
Ahogy már a Joseph Weizenbaum által 1966-ban elkészített ELIZA chatbot és a vele történő emberi kapcsolódás kutatása is megerősítette: egy “beszélő”/”író” entitás mögé az ember tudatot vagy egyenesen lelket lát. Noha ELIZA semmi esetre sem rendelkezett tudattal, és noha a ChatGPT is puszta statisztikai valószínűségek alapján tesz egymás mellé szavakat a mi inputjaink és a más, beletáplált tréningadatok alapján,
a chatbot-jellegnek, Hao szerint, hatalmas szerepe van abban, hogy az AGI, szuperintelligencia mindenki számára elképzelhető legyen.
6. Konnektivitás, “machine learning”, “neural networks”, “deep learning”
Egy csomó olyan szó forog a köznyelvben, amelyek lebegnek. Ismerjük a kontextusukat, legalább nagyjából, de sosem ismerjük meg, például, a keletkezésük körülményeit.
Ilyenek a
“machine learning”, azaz “gépi tanulás”
“neural networks”, azaz “neurális hálók” vagy a
“deep learning”, teljes nevén: “deep neural networks to perform machine learning”, azaz “gépi tanulást végző mély neurális hálók”.
A neurális hálókat persze lehetne adatfeldolgozó csomópontok hálózatának is hívni, de úgy nem lenne a hangzás elég emberi-agyas.
A “deep learning” kifejezés az AI keresztapjaként emlegetett Geoffrey Hintontól ered. De nem a napokban találta ki, hanem az 1980-as években. Hao ezt írja: “lényegében, a neurális hálók olyan statisztikai számológépek, amelyek a régi adatokban – szöveg, kép, videó – mintázatokat ismernek fel, amelyeket képesek az új adatokra alkalmazni”.
Ha tehát építeni akarunk egy AI-modellt, folytatja Hao, amelyik embereket ismer fel képeken, akkor a neurális hálókat minél nagyobb mennyiségű képpel kell megetetnünk, amelyek mindegyikét felcímkézzük 1-essel (van rajta ember) vagy 0-val (nincs rajta ember). Itt már sejthetjük: amikor a Google kérésére azzal bizonygatjuk ember mivoltunkat, hogy “minden képet bejelölünk, amelyen jelzőlámpa van”, akkor egyben tréningeljük a Google neurális hálóit.
Egyébként ezt a módszert használják az önvezető autók trenírozására is. A training data pedig sosem tud lefedni minden lehetséges felmerülő mintázatot elegendő mennyiségben (mindig lesznek kilógó elemek). Ez pedig olykor emberek életébe is kerül.
Így derült ki, hogy bizony az utcán átkelő gyalogos bőrének a színe nem mindig fehér, a gyalogos néha alacsony ember, gyerek is lehet, sőt, az is elképzelhető, hogy nem a zebrán kel át, vagy épp biciklit tol maga mellett, amelyről megannyi csomag lóg. A training data hiányosságai sajnos nem mindig a kísérletek során derültek ki. A fő probléma tehát, hogy mindig lesznek esetek, amelyekre nem lesz elég minta.
7. A ChatGPT hallucinaciója nem bug, hanem feature
Hallucinációnak nevezik, amikor a ChatGPT vagy más azonos alapon működő LLM tényszerűen hülyeségeket beszél, ír. Ahogy Hao rávilágít:
ez a megfogalmazás (mármint a hallucináció) elég félrevezető, mert azt sugallja, bugról, hibáról van szó, amit idővel ki lehet majd javítani.
Ugyanakkor nem, nem lehet, mivel nem hiba, hanem az imént bemutatott “deep learning” modell szükségszerű velejárója. Amint valami “határterület” és nem tipikus, az AI annál nagyobb eséllyel fog “hallucinálni”, mert valamit akkor is mondani fog, ha kevés adata van róla. Ha pedig az adat kevesebb, a válasz helyességének valószínűsége csökken. Persze az alacsonyabb valószínűségű választ ugyanolyan magabiztos csomagolásban kapjuk, mint a totál biztosat (utóbbi persze nem lehet).
8. Őrületes skálázás
A technológia és az elmélet, amellyel a mai ChatGPT (meg pl. Google algoritmus stb.) működik, tehát már a 80-as években létezett. De akkor mi hiányzott, miért nem lett nagyobb durranás?
Számítási kapacitás és adat. Sok, sok, sok adat. Ez az, ami az internet elterjedésével és a – mára már tudhatóan egyáltalán nem környezetbarát – fokozódó és szent jelszóvá vált digitalizációval egyre csak gyűlik és gyűlik. Kevés olyan adatlöket jöhetett volna, mint maguknak az emberi kapcsolatoknak a digitalizációja, a social media térnyerése. Az elmúlt 15-20 évben elképesztő mennyiségben töltünk fel szövegeket, képeket, videókat magunkról, másokról, a világról. A gépek, a neurális hálók segítségével, tanulnak.
Mára tehát minden adott volt, hogy az OpenAI előrukkolhasson a sikertermékkel: a chatbottal, amelyet annyi adatponttal etettek meg és etetünk folyamatosan, a használat közben is, hogy az emberi társalgás tökéletes illúzióját képes kelteni.
Mi kell ehhez? Ahogy Sam Altman idén az amerikai Kongresszus előtt is elmondta: energia. Persze, fontosak a chipek, de ami a legfontosabb: olcsó energia. (Ez az ára annak, hogy Kína nehogy beelőzze az USA-t az AGI-val, ahogy Altman is érvel, mert akkor minden elpusztul. Igaz, a beszélgetés, vagy nem tudom, mindek nevezzem, több mint 3 óra, de érdemes belehallgatni – a kérdések és válaszok egyaránt elkeserítők.)
9. AI és környezeti hatások
A skálázás, adatharácsolás elképesztő üteme miatt a környezeti hatások és az energiaszükséglet elképesztő mértékben emelkednek, évről évre. Erről szól Hao könyvében a “Plundered Earth” c. fejezet.
Tíz éve a datacentereket focipályákhoz hasonlították. Ezek igen hamar a nagy amerikai egyetemek campusainak méretére nőttek. Egész a közelmúltig, a legnagyobb datacenterek, adatközpontok éves szinten kb. 122.000 átlag amerikai(!) háztartás energiáját használták fel. Most már nem focipályákról, nem campusokról, hanem megacampusokról beszélnek. A várakozás az, hogy egyetlen(!) megacampus évente annyi energiát fog elfogyasztani, mint egész San Francisco 2-3 év alatt (1000–2000 megawatt/év).
Ha az energiafelhasználás smafu lenne, akkor nyugodtan vegyük ide az irgalmatlan mennyiségű friss, tiszta vizet, ami egy ilyen adatközpont hűtéséhez szükséges. Az adatközpontok közül nem egy erős vízhiányos területen van – vízhiányos terület is egyre több van.
A University of California, Riverside kutatása alapján 2027(!)-re az AI friss ivóvízfogyasztása éves szinten eléri az egész UK vízfogyasztásának a felét (ez ugye nemcsak a háztartásokat jelenti, hanem pl. az ipari vízfelhasználást is).
De ez a mennyiség talán kevésbé kétségbeejtő, mint az a tény, hogy Chilében már van olyan adatközpont, amely üzemeltetéséhez az emberek csapjából vonják ki az ivóvíz minőségű friss vizet. Az emberek pedig félig visszakevert szennyvizet tudnak fogyasztani – vagy palackos vizet, amit persze egyrészt nem mindenki engedhet meg, másrészt meg nem túl környezetbarát megoldás az sem. Persze: jobb, mint súlyosan megbetegedni.
Itt most befejezem, mert soha senki nem fogja így sem végigolvasni. Jövök majd egy második résszel, amelyben szó lesz még a munkaalapú kizsákmányolásról, a foglyul ejtett tudományról, az adatbiztonságról, transzparenciáról, black-box működésről, a birodalom fogalmáról. Ezekről biztos, a többit meglátom.
Elsődleges kulcsszavak: AI, AGI, OpenAI, Sam Altman, birodalom.
Másodlagos kulcsszavak: nonprofit/for profit, skálázás (scaling), machine learning – deep learning, (adat)biztonság, kockázat, statisztikai modell, ChatGPT, chatbot, LLM, foglyul ejtett tudomány.
Harmadlagos kulcsszavak: adatkolonializmus (data colonialism), szabályozás, network, kongresszus, Kína, manipuláció, “hallucinálás”, feature és nem bug, az AI környezeti hatásai, az AI társadalmi hatásai, rasszizmus, szexizmus, “connectionist direction”, RLHF – Reinforcement Learning from Human Feedback, “black box” működés, transzparencia, EA – Effective Altruism.


Kár, hogy itt most befejezted, szívesen olvastam volna a többit is. De kivárom, mert izgalmas! 🙂
Ó, nagyon köszönöm, ez pont jókor jött! Listán volt, de őrült rohanás van :).
Úgy tűnik, hogy igazából csak azt írja le, amit szépen lassan végigéltünk :) (előnye is van a kornak...)
Így összeszedve teljesen korrekt és releváns meglátások, de mellétennék pár ellenérvet, mert így eléggé félrement egy irányba szvsz. (Később lehet visszatérek, most rohanok tovább :D.)