Teljesen mindegy, hogy emberek vagy robotok használják a közösségi médiát, az eredmény szörnyű lesz

Egy új kutatás kijózanító eredményei szerint még egy ember nélküli, mesterséges intelligencia által működtetett közösségi hálózat is ugyanolyan tragikus sorsra jut, mint amilyet mi csináltunk magunknak. De mit jelent mindez?

Nincs most elég időd?

  • Az Amszterdami Egyetem kutatói mesterséges intelligencia-botokkal népesítettek be egy teljes közösségi hálót.
  • A rendszer pillanatok alatt ugyanazokat a torzulásokat mutatta, mint a valódi platformok: polarizáció, szélsőségek felerősödése, figyelem-egyenlőtlenség.
  • Az MI minket másol. Neurológiai kutatások szerint az érzelmileg túlfűtött tartalom dopamin-reakciót vált ki, és az amigdala aktiválásával beszűkíti a figyelmet.
  • Szülőként tudatosítanunk kell, hogy gyermekeink nemcsak időt veszítenek a közösségi médiában, hanem agyi szinten kondicionálódhatnak a szélsőséges érzelmek keresésére.
Talán ma már nem túl nagy meglepetés kijelenteni: az internet a közösségi média elterjedésével elvesztette eredeti értelmét és szabadságát. De még a közösségi média is eredetileg egy digitális agorának ígérkezett, mindenki számára nyitott térnek, ahol építő vita és kulturált diskurzus születhet sokféle, szabad tartalom kapcsán. A gyakorlatban azonban hamar kiderült, hogy az üzleti modell a figyelem maximalizálására épül.

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!
Ami érzelmet vált ki – felháborodást, haragot, kárörömöt vagy épp megerősítést –, az terjed, és minél többen reagálnak rá, annál több hirdetés jeleníthető meg mellette. Ez a szerkezet egyre mélyebb véleménybuborékokat és visszhangkamrákat épített, ahol a szélsőségek kapják a legnagyobb teret. Ha erről többet szeretnél tudni, érdemes megnézni - többek között - a Társadalmi dilemma című dokumentumfilmet.

A kísérlet: egy mesterséges közösségi háló

Az Amszterdami Egyetem kutatói, Petter Törnberg adjunktus és Maik Larooij kutatási asszisztens merész gondolatkísérletet hajtottak végre. Létrehoztak egy olyan közösségi hálózatot, ahol egyetlen ember sem volt jelen: minden „felhasználó” mesterségesintelligencia-ügynök volt, a háttérben a GPT-4o nagy nyelvi modell futott.

🧠 Miről is van szó pontosan?
GPT-4o: Az OpenAI által 2024-ben bemutatott nagy nyelvi modell, amely képes szöveget, képet és hangot egyaránt feldolgozni és előállítani. A nyelvi modell alapjában véve egy olyan mesterségesintelligencia-rendszer, amelyet hatalmas szöveges adathalmazokon tanítanak. A feladata, hogy megjósolja, milyen szó vagy kifejezés következhet egy adott szövegkörnyezetben. Ennek köszönhetően képes összefüggő mondatokat alkotni, kérdésekre válaszolni vagy akár kreatív szöveget generálni. A nagy nyelvi modellek (LLM – Large Language Model) különlegessége, hogy hatalmas mennyiségű adat alapján tanulnak, így bonyolultabb, emberhez hasonló nyelvi működést tudnak produkálni. A betűjelben az „o” a „omni” (minden) kifejezésre utal, vagyis a modell többféle modalitásra – írás, beszéd, vizuális tartalom – reagál.

A cél az volt, hogy megnézzék:

vajon akkor is kialakulnak-e a valós közösségi médiát mérgező jelenségek, ha sem emberi döntések, sem bonyolult algoritmusok nincsenek a rendszerben.

A válasz kijózanító: rövid időn belül a mesterséges szereplők ugyanazokat a működési mintákat hozták létre, mint a hús-vér emberek. Pártokra szakadtak, a figyelem egy szűk elit kezében összpontosult, és a legszélsőségesebb üzenetek erősödtek fel.

Hat sikertelen beavatkozás

A kutatók hat lehetséges „gyógymódot” is kipróbáltak:

  • időrendi hírfolyam,
  • a követőszámok és lájkok elrejtése,
  • a különböző nézőpontok előtérbe helyezése,
  • a profilok bemutatkozó szövegének eltávolítása,
  • valamint a „hídépítő” algoritmusok bevezetése.
Egyik sem hozott áttörést. Néhány intézkedés mérsékelt pozitív hatást mutatott, mások viszont rontottak a helyzeten. Például az időrendi sorrend csökkentette a figyelem-egyenlőtlenséget, de a szélsőséges tartalmakat emelte a felszínre.

Maga a hálózat a hibás

Az egyik legfontosabb felismerés az volt, hogy a jelenségek nem az algoritmusok torzításából fakadtak. A kísérletet más nyelvi modellekkel is megismételték (Llama, DeepSeek), és ugyanazok az eredmények születtek.

🧠 Miről is van szó pontosan?
Llama: A Meta (korábban Facebook) által fejlesztett nyílt forráskódú nagy nyelvi modellcsalád. A név a Large Language Model Meta AI rövidítése. Előnye, hogy szabadon hozzáférhető kutatók és fejlesztők számára, így széles körben lehet kísérletezni vele és építeni rá alkalmazásokat.
DeepSeek: Egy kínai vállalat által fejlesztett nagy nyelvi modell, amely kifejezetten az ázsiai nyelvek támogatására és ipari felhasználásra készült. A DeepSeek célja, hogy olcsóbb és gyorsabb alternatívát kínáljon a nyugati fejlesztésű modellekhez képest.

Mivel a közösségi rendszer pusztán a posztolás, újraposztolás és követés alapműveleteire épült, a polarizáció és a figyelem-egyenlőtlenség a hálózat természetéből fakadt. Más szóval: a közösségi média szerkezetileg így működik, a tragédia kódolva van benne, az MI viselkedése pedig az embereket utánozza.

  • Az a tartalom, amely erősebb reakciót vált ki – legyen az felháborodás, megerősítés vagy ellenségesség –, újraposztolásra ösztönöz.
  • Az újraposztolás követőket hoz, és ezzel tovább erősíti a legmegosztóbb hangokat.
  • Ez az önmagát erősítő körforgás a láthatóság és az elköteleződés között természetes módon zárt közösségeket, figyelem-egyenlőtlenséget és szélsőségek előtérbe kerülését hozza létre.

Miért ennyire vonzó a felháborodás?

A jelenség hátterében az emberi idegrendszer működése áll. Neurológiai kutatások szerint az érzelmileg töltött tartalom aktiválja a dopamin-jutalmazó rendszert, amely az addikció alapja.

A morális-érzelmi nyelvezet gyorsabban terjed online, mert erősebb izgalmat vált ki. A harag különösen erős hatású: aktiválja az amigdalát, fokozza az éberséget és a megosztó ingerek iránti fogékonyságot.

A rendszer így kondicionálja a felhasználót: egyre inkább a felháborodást keresi, egyre szűkebb látókörrel.

🧠 Miről is van szó pontosan?
Dopamin: Az agy egyik legfontosabb ingerületátvivő anyaga (neurotranszmittere), amely a jutalmazó és motivációs folyamatokban játszik központi szerepet. Amikor valami élvezetes vagy újszerű történik, dopamin szabadul fel, ami örömérzetet kelt, és megerősíti a viselkedést. Ugyanez a mechanizmus áll a szerfüggőségek és a közösségi média „függőséget okozó” hatásai mögött.
Amigdala: Az agy halántéklebenyben található mandula alakú magcsoport, amely kulcsszerepet játszik az érzelmek feldolgozásában, különösen a félelem és a harag szabályozásában. Aktiválódása fokozza az éberséget és a figyelmet, ezért online környezetben a felháborító vagy dühöt keltő tartalmak erősebb hatással vannak ránk.

Nem véletlen, hogy a nagy techcégek vezetői sokszor korlátozzák saját gyermekeik közösségimédia-használatát. Ők pontosan tudják, hogy az általuk épített platformok a pszichológia és a viselkedéstudomány minden eszközével dolgoznak a figyelem megragadásán.

„Képesek vagyunk azonosítani, hogyan lehetne javítani a közösségi médiát, és létrehozni olyan online teret, amely valóban beteljesíti a korai ígéreteket: egy nyilvános szférát, ahol építő módon vitathatjuk meg a politikát?” – tette fel a kérdést Petter Törnberg adjunktus. Szerinte a technológia képes „hihetőbb módon megragadni az emberi viselkedést” és jól megmutatni, mi történik a közösségi médiában, bár a modell nem tökéletes.

„Már most is látjuk, hogy sok tartalomgyártó mesterséges intelligenciát használ a figyelem maximalizálását célzó tartalmak előállítására” – mondta Törnberg.

„Ahogy az MI-modellek egyre erősebbek lesznek, az álhírek és a gyakran erősen polarizált információk át fogják venni az uralmat.”

„Nehéz elképzelnem, hogy a hagyományos közösségi média modellek ezt túléljék” – tette hozzá.

Miért fontos ez szülőként?

Nem elég azzal szembesülnünk, hogy a közösségi média káros lehet. Meg kell értenünk, hogy a rendszer alapjai rosszak, amit nekünk kell ellensúlyozni. A gyerekeink nem csupán rossz szokásokat vesznek fel, hanem agyi szinten kondicionálódhatnak a szélsőséges érzelmek keresésére. Az ehhez való hozzászokás beszűkíti a világképüket, és tartósan torzíthatja a gondolkodást. Ez nem pusztán időrablás, hanem fejlődési kockázat is.

Ha pedig tágabb kontextusban nézzük a jelenséget, akkor a piaci szereplőknek is változniuk kellene, bár erre elég kevés az esély, hacsak nincs társadalmi vagy politikai nyomás. Amennyiben olyan platformokat akarunk, amelyek a társadalmat és a mentális egészséget erősítik a torzítás helyett, a reform nem állhat meg a moderációnál vagy az algoritmusok hangolásánál. Valódi változáshoz a közösségi média alapjainak újratervezésére lenne szükség.

Mit tehetünk szülőként?

  • Első lépésként tudatosítsuk, hogyan működnek ezek a mechanizmusok. Beszélgessünk a gyerekekkel arról, miért érzik annyira vonzónak a szenzációhajhász tartalmakat, milyen érzelmeket kelt bennük mindez (az, hogy valami crazy, az egy dolog, tovább kell beszélni róla).
  • Második lépésben teremtsünk alternatív közösségi élményeket: családi programokat, offline találkozásokat, olyan digitális platformokat, amelyek nem a lájkok számáról szólnak.
  • Harmadik lépésben pedig állítsunk fel kereteket: időkorlátot, értesítések szűrését, és tudatos médiafogyasztási szokásokat. Nem az a cél, hogy mindent megtiltsunk, hanem hogy a gyerekek eszközt kapjanak a túléléshez a digitális térben.