Olyan, mint a hagyma – nem parfé!
Sokrétegű, mint a hagyma – nem parfé! A hagyma különleges: a szorosan egymást ölelő rétegek összessége kiad egy egészet, de minden réteg leválasztásánál egy újabb egész, kompakt kis hagymát kapunk. Shrek azt állítja, ő olyan, mint a hagyma: a rétegek mindegyikét meg kell ismerni ahhoz, hogy érthető legyen az ő teljes személyisége.
Hát, így van ezzel szegény AI-technológia is. Megannyi szorosan egymásra épülő rétege van a róla szóló diskurzusnak, amelyek viszont észrevétlenül le is választhatók egymásról – ignorálhatók. Ez sokszor vezet félreértésekhez, egymás mellett elbeszéléshez, vagy a meg nem értettség frusztrációjához.
Ennek a cikknek a témája akkor fogalmazódott meg bennem, amikor Búzás Balázs interjúját olvastam Pataki Bálinttal, EU-szabályozási kérdésekről. Épp nem sokkal előtte írtam valamit én is AI-témában, így megütött az interjú és a saját aktuális gondolataim közötti kontraszt.
Szóval a transzparencia és rend iránti vágyamat kielégítendő, gyorsan összeszedtem, milyen rétegek is azok, amelyeket érdemes megkülönböztetni és mindig szem előtt tartani az egymásra hatásukat. Nem spanyol viasz, mégis tudatosabbá válhat tőle a gondolkodásunk.
Az AI-diskurzus 8 rétege
A rétegeknek megvan a külön logikájuk, a külön premisszáik – és bár folyamatosan hatnak egymásra a logikák és érvrendszerek, nem automatikusan illeszkednek össze (ami az egyik rétegben logikus és jó megoldás, az lehet, hogy egy másik réteg logikája szerint éppen, hogy agyhalál).
Ettől lesz nagyon nehéz az egész kérdéskör tárgyalása. Innen nézve az AI körüli zűrzavar nem annyira meglepő: valójában nem egyetlen vitában vagyunk, hanem több, egymásra csúszó, saját logikai és társadalmi-kulturális erőtérrel rendelkező vitában egyszerre.
1. A fizikai infrastruktúra rétege
Chipek, nyersanyagigény, adatközpontok, energia és hálózatok tartoznak ide. Ez az AI „anyaga”.
Itt dől el, hogy egyáltalán ki képes nagy modelleket fejleszteni, és milyen mértékben.
Nem véletlen, hogy ez a szint ma geopolitikai kérdéssé vált – a fizikai infrastruktúra nem csak technikai, hanem hatalmi erőforrás, politikai pozicionálás is.
2. A modellek rétege
Itt születnek az alapmodellek – nyelvi modellek, multimodális rendszerek. Ez az a szint, amely talán a legtöbb figyelmet kapja, pedig valójában köztes réteg:
meghatározza, mit lehet technológiailag megcsinálni – de nem itt dől el, mire használjuk, és nem itt keletkezik az érték.
Itt jelenik meg a nagyon fontos open vs. zárt fejlesztés kérdésköre, illetve ehhez kapcsolódva a civil és katonai felhasználás közötti feszültség is.
3. A szervezeti működés rétege
Itt azok a diskurzusok a meghatározók, amelyek arról szólnak, hogyan épüljön be az AI a folyamatokba, a döntéshozatalba, a napi munkába.
Ehhez a szinthez tartozott a mára több kérdőjelet, mint megnyugtató választ felvető human-in-the-loop koncepció is.
Ez már nem technológiai kérdés, ahogy a modellek rétege, hanem működési és menedzsmentprobléma. A kulcskérdés itt az, hogy ki hozza a valódi döntéseket, milyen tempóban, milyen felelősségi struktúrában.
4. A használati esetek rétege
Itt válnak az AI-modellek konkrét eszközzé. A használati eset az, amit megtervezünk (a valós használat pedig az lesz, ami ténylegesen történik). Ez az a szint, ahol az AI kilép a nagybetűs életbe: megvan a friss érettségije, meglátjuk, mire teszik alkalmassá a tanultak. A használati esetek (use case) értelemszerűen nagyon különbözők lehetnek, hitelbírálattól az orvosi diagnosztikán és ügyfélszolgálaton át, egészen a marketingautomatizációig.
5. A valós használat rétege
Ez az a réteg, ami görbe tükröt mutat a jól hangzó elméleteknek és stratégiai iránymutatásnak – ami ténylegesen történik.
A HITL (human-in-the-loop) például eléggé úgy tűnik, hogy elméletben működött, csak épp a hús-vér ember nem így cselekszik, ráadásul a megváltozott kontextus sem efelé nyomja. Miért? Mert a munkavállaló nem fogja állandóan ellenőrizgetni a modell megoldási javaslatait – pláne, ha a saját mindennapi munkavégzése az AI-ra való hivatkozás miatt (hatékonyabb lettél) totál túlterhelődik. Utóbbi esetben lehetetlen is elvárni, a “valódi döntéshozó” pozícióját.
6. A gazdaság rétege
Itt az AI üzleti hatása aggregált szinten látszik: termelékenységi mutatók, piacok átrendeződése, munkaerőpiaci hatások. Itt dől el, hogy az AI valóban hoz-e növekedést, és ha igen, akkor ez a növekedés hogyan oszlik el.
7. Politikai és szabályozási réteg
Itt próbálják értelmezni és keretek közé szorítani az eddig tárgyaltakat. Itt születnek meg az AI Act típusú szabályok, illetve az olyan kezdeményezések, mint a közös fejlesztési modellek.
A kihívás az, hogy a szabályozás mindig késésben van a technológiához képest, ami az AI esetében hatványozottan igaz lehet.
Ettől függetlenül ez a réteg mégis nagyon fontos, mert vágyott irányokat és értékrendet közvetít – ez a tevékenység pedig egyáltalán nem mindegy vagy felesleges.
8. Társadalmi és filozófiai réteg
Itt jönnek be az olyan kérdések, mint a bizalom, a normák, valamint hogy mit tekintünk döntésnek, tudásnak, “emberinek” vagy akár felelősségnek egy AI-val átszőtt világban. Szintén idetartoznak az olyan kérdések, hogy “jó-jó, de kinek jó”, ki kamatoztat végső soron az AI technológiákból? Vagyis: mivégre akarja a társadalom az AI-t?
Ne feledjük!
Minél gyorsabb (mennyiségibb!) a rendszer, annál nagyobb a kísértés a kontrollfolyamatok rövidítésére. Nem is olyan régen volt már rá példa, mi történik, ha a szabályok és a tényleges működés rendszerszinten szétcsúszik. Sokáig észrevétlen maradhat, egyszer pedig minden dől.
A pénzügyi szektorban a 2008-as válság előtt a kockázatkezelési rendszerek papíron léteztek és működtek. A gyakorlatban azonban a piaci ösztönzők és a szervezeti nyomás felülírták őket. Az AI esetében ez a feszültség még erősebb lehet, mert maga a technológia gyorsítja fel a döntéshozatalt.
Így alakul ki az a helyzet, ahol a szabályozás, a szervezeti működés és a valós használat három külön világban létezik. Az AI legnagyobb kockázata nem feltétlenül a modellek képességeiben rejlik (tech. szingularitás), hanem abban, ahogyan használjuk őket – lásd, pl.: social media és politikai választások. A probléma tehát nem technológiai, hanem rendszerszintű, illetve kulturális, társadalmi.







