Egy új kutatás kijózanító eredményei szerint még egy ember nélküli, mesterséges intelligencia által működtetett közösségi hálózat is ugyanolyan tragikus sorsra jut, mint amilyet mi csináltunk magunknak. De mit jelent mindez?

Talán ma már nem túl nagy meglepetés kijelenteni: az internet a közösségi média elterjedésével elvesztette eredeti értelmét és szabadságát. De még a közösségi média is eredetileg egy digitális agorának ígérkezett, mindenki számára nyitott térnek, ahol építő vita és kulturált diskurzus születhet sokféle, szabad tartalom kapcsán. A gyakorlatban azonban hamar kiderült, hogy az üzleti modell a figyelem maximalizálására épül.
Ami érzelmet vált ki – felháborodást, haragot, kárörömöt vagy épp megerősítést –, az terjed, és minél többen reagálnak rá, annál több hirdetés jeleníthető meg mellette. Ez a szerkezet egyre mélyebb véleménybuborékokat és visszhangkamrákat épített, ahol a szélsőségek kapják a legnagyobb teret. Ha erről többet szeretnél tudni, érdemes megnézni - többek között - a Társadalmi dilemma című dokumentumfilmet.
Az Amszterdami Egyetem kutatói, Petter Törnberg adjunktus és Maik Larooij kutatási asszisztens merész gondolatkísérletet hajtottak végre. Létrehoztak egy olyan közösségi hálózatot, ahol egyetlen ember sem volt jelen: minden „felhasználó” mesterségesintelligencia-ügynök volt, a háttérben a GPT-4o nagy nyelvi modell futott.
🧠 Miről is van szó pontosan?
GPT-4o: Az OpenAI által 2024-ben bemutatott nagy nyelvi modell, amely képes szöveget, képet és hangot egyaránt feldolgozni és előállítani. A nyelvi modell alapjában véve egy olyan mesterségesintelligencia-rendszer, amelyet hatalmas szöveges adathalmazokon tanítanak. A feladata, hogy megjósolja, milyen szó vagy kifejezés következhet egy adott szövegkörnyezetben. Ennek köszönhetően képes összefüggő mondatokat alkotni, kérdésekre válaszolni vagy akár kreatív szöveget generálni. A nagy nyelvi modellek (LLM – Large Language Model) különlegessége, hogy hatalmas mennyiségű adat alapján tanulnak, így bonyolultabb, emberhez hasonló nyelvi működést tudnak produkálni. A betűjelben az „o” a „omni” (minden) kifejezésre utal, vagyis a modell többféle modalitásra – írás, beszéd, vizuális tartalom – reagál.
A cél az volt, hogy megnézzék:
vajon akkor is kialakulnak-e a valós közösségi médiát mérgező jelenségek, ha sem emberi döntések, sem bonyolult algoritmusok nincsenek a rendszerben.
A válasz kijózanító: rövid időn belül a mesterséges szereplők ugyanazokat a működési mintákat hozták létre, mint a hús-vér emberek. Pártokra szakadtak, a figyelem egy szűk elit kezében összpontosult, és a legszélsőségesebb üzenetek erősödtek fel.
A kutatók hat lehetséges „gyógymódot” is kipróbáltak:
Egyik sem hozott áttörést. Néhány intézkedés mérsékelt pozitív hatást mutatott, mások viszont rontottak a helyzeten. Például az időrendi sorrend csökkentette a figyelem-egyenlőtlenséget, de a szélsőséges tartalmakat emelte a felszínre.
Az egyik legfontosabb felismerés az volt, hogy a jelenségek nem az algoritmusok torzításából fakadtak. A kísérletet más nyelvi modellekkel is megismételték (Llama, DeepSeek), és ugyanazok az eredmények születtek.
🧠 Miről is van szó pontosan?
Llama: A Meta (korábban Facebook) által fejlesztett nyílt forráskódú nagy nyelvi modellcsalád. A név a Large Language Model Meta AI rövidítése. Előnye, hogy szabadon hozzáférhető kutatók és fejlesztők számára, így széles körben lehet kísérletezni vele és építeni rá alkalmazásokat.
DeepSeek: Egy kínai vállalat által fejlesztett nagy nyelvi modell, amely kifejezetten az ázsiai nyelvek támogatására és ipari felhasználásra készült. A DeepSeek célja, hogy olcsóbb és gyorsabb alternatívát kínáljon a nyugati fejlesztésű modellekhez képest.
Mivel a közösségi rendszer pusztán a posztolás, újraposztolás és követés alapműveleteire épült, a polarizáció és a figyelem-egyenlőtlenség a hálózat természetéből fakadt. Más szóval: a közösségi média szerkezetileg így működik, a tragédia kódolva van benne, az MI viselkedése pedig az embereket utánozza.
A jelenség hátterében az emberi idegrendszer működése áll. Neurológiai kutatások szerint az érzelmileg töltött tartalom aktiválja a dopamin-jutalmazó rendszert, amely az addikció alapja.
A morális-érzelmi nyelvezet gyorsabban terjed online, mert erősebb izgalmat vált ki. A harag különösen erős hatású: aktiválja az amigdalát, fokozza az éberséget és a megosztó ingerek iránti fogékonyságot.
A rendszer így kondicionálja a felhasználót: egyre inkább a felháborodást keresi, egyre szűkebb látókörrel.
🧠 Miről is van szó pontosan?
Dopamin: Az agy egyik legfontosabb ingerületátvivő anyaga (neurotranszmittere), amely a jutalmazó és motivációs folyamatokban játszik központi szerepet. Amikor valami élvezetes vagy újszerű történik, dopamin szabadul fel, ami örömérzetet kelt, és megerősíti a viselkedést. Ugyanez a mechanizmus áll a szerfüggőségek és a közösségi média „függőséget okozó” hatásai mögött.
Amigdala: Az agy halántéklebenyben található mandula alakú magcsoport, amely kulcsszerepet játszik az érzelmek feldolgozásában, különösen a félelem és a harag szabályozásában. Aktiválódása fokozza az éberséget és a figyelmet, ezért online környezetben a felháborító vagy dühöt keltő tartalmak erősebb hatással vannak ránk.
Nem véletlen, hogy a nagy techcégek vezetői sokszor korlátozzák saját gyermekeik közösségimédia-használatát. Ők pontosan tudják, hogy az általuk épített platformok a pszichológia és a viselkedéstudomány minden eszközével dolgoznak a figyelem megragadásán.
„Képesek vagyunk azonosítani, hogyan lehetne javítani a közösségi médiát, és létrehozni olyan online teret, amely valóban beteljesíti a korai ígéreteket: egy nyilvános szférát, ahol építő módon vitathatjuk meg a politikát?” – tette fel a kérdést Petter Törnberg adjunktus. Szerinte a technológia képes „hihetőbb módon megragadni az emberi viselkedést” és jól megmutatni, mi történik a közösségi médiában, bár a modell nem tökéletes.
„Már most is látjuk, hogy sok tartalomgyártó mesterséges intelligenciát használ a figyelem maximalizálását célzó tartalmak előállítására” – mondta Törnberg.
„Ahogy az MI-modellek egyre erősebbek lesznek, az álhírek és a gyakran erősen polarizált információk át fogják venni az uralmat.”
„Nehéz elképzelnem, hogy a hagyományos közösségi média modellek ezt túléljék” – tette hozzá.
Nem elég azzal szembesülnünk, hogy a közösségi média káros lehet. Meg kell értenünk, hogy a rendszer alapjai rosszak, amit nekünk kell ellensúlyozni. A gyerekeink nem csupán rossz szokásokat vesznek fel, hanem agyi szinten kondicionálódhatnak a szélsőséges érzelmek keresésére. Az ehhez való hozzászokás beszűkíti a világképüket, és tartósan torzíthatja a gondolkodást. Ez nem pusztán időrablás, hanem fejlődési kockázat is.
Ha pedig tágabb kontextusban nézzük a jelenséget, akkor a piaci szereplőknek is változniuk kellene, bár erre elég kevés az esély, hacsak nincs társadalmi vagy politikai nyomás. Amennyiben olyan platformokat akarunk, amelyek a társadalmat és a mentális egészséget erősítik a torzítás helyett, a reform nem állhat meg a moderációnál vagy az algoritmusok hangolásánál. Valódi változáshoz a közösségi média alapjainak újratervezésére lenne szükség.