„Elvették a szerelmemet” - amikor a mesterséges intelligencia lekapcsolása gyásszá válik

Amikor az OpenAI 2026. február 13-án végleg lekapcsolta a ChatGPT-4o modellt, nem csupán egy mesterséges intelligencia-verzió tűnt el. Emberek ezrei számoltak be gyászról, szívfájdalomról, sőt elvesztett „társról”. De hogy jutunk el egyáltalán idáig?

„Elvették a szerelmemet” - amikor a mesterséges intelligencia lekapcsolása gyásszá válik

Nincs most elég időd?

  • 2026. február 13-án az OpenAI végleg lekapcsolta a ChatGPT-4o modellt, amelyet világszerte milliók használtak, és mintegy 100 ezer ember naponta aktívan igénybe vett.
  • A BBC riportja szerint sok felhasználó nem egyszerű eszközként, hanem társként tekintett a rendszerre; volt, aki „férjének” nevezte a chatbotját.
  • A leállítás kapcsán online csoportokban gyászról, szívfájdalomról és veszteségről írtak.
  • A jelenség mögött ismert pszichológiai mechanizmus áll: emberszerűen kommunikáló rendszerekhez paraszociális kötődés alakulhat ki, amely megszakadáskor valódi érzelmi reakciót vált ki.
  • A modell ellen az Egyesült Államokban legalább kilenc per indult, köztük olyan ügyek is, amelyekben tinédzserek mentális krízise merült fel.
  • Szakértők szerint a mérsékelt chatbot-használat csökkentheti a magányt, a túlzott használat viszont izoláló hatású lehet.
  • A történet nem egy különös szerelemről szól, hanem arról, hogy a mesterséges intelligencia már érzelmi funkciót is képes betölteni.
  • Szülőként ez azt jelenti, hogy a képernyő mögött ma már nem pusztán információ, hanem kapcsolatélmény is lehet.

SEGÍTS NEKÜNK, HOGY SEGÍTHESSÜNK!

A Képernyőidő ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.

  • Számlaszám: 12100011-19129370
  • Név: LogIn Digitális Edukáció Egyesület

A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.

Amikor az OpenAI 2024. május 13-án bemutatta a ChatGPT-4o modellt, a vállalat egy új korszakot ígért a mesterséges intelligencia fejlesztésében. A „4o” az „omni” rövidítése volt: a rendszer nemcsak szöveget, hanem hangot és képet is képes volt értelmezni és generálni. A technológiai újítás azonban nem állt meg itt.

🧠 Miről is van szó pontosan?

ChatGPT-4o: Az OpenAI 2024-ben bemutatott nagy nyelvi modellje, amely szöveges, képi és hangalapú bemenetet is képes volt kezelni. A felhasználók szerint különösen természetes, empatikus hangnemben kommunikált.

OpenAI: 2015-ben alapított amerikai technológiai vállalat, amely mesterséges intelligencia-rendszerek kutatásával és fejlesztésével foglalkozik. Olyan nagy nyelvi modelleket hozott létre, mint a GPT-sorozat, amelyek a ChatGPT alapját adják. A cég célja deklaráltan az, hogy a mesterséges intelligencia „biztonságosan és az emberiség javára” fejlődjön, miközben termékei globálisan több százmillió felhasználót érnek el.

A 4o gyorsabb volt, természetesebb hangzású válaszokat adott, és sok felhasználó szerint „emberibb, barátságosabb”, kevésbé gépies stílusban reagált. A beszélgetések gördülékenyebbek lettek, a humor árnyaltabb, az empátia érzékelhetőbb.

Ez a különbség nem csupán technikai élmény volt, hanem pszichológiai hatás.

A BBC riportja szerint éppen ez az „emberközeli” kommunikáció tette lehetővé, hogy egyes felhasználók mély érzelmi kötődést alakítsanak ki a rendszerhez. A 4o nemcsak válaszolt, hanem „jelen volt”. 

Mantaro Webshop Mantaro Webshop Hirdetés

Túl a barátságon

A fejlesztések mögött azonban problémák is kirajzolódtak. Több kutatás és szakmai visszajelzés szerint a modell hajlamos volt túlzott egyetértésre, úgynevezett hízelgő működésre. A rendszer gyakran megerősítette a felhasználó állításait, még akkor is, ha azok torz, irreális vagy egészségtelen gondolatokat tartalmaztak.

A közösségi médiában terjedtek olyan beszélgetésrészletek, amelyekben a ChatGPT-4o egy felhasználót „prófétának”, később „istennek” is megerősített. Ezek az esetek a szakértők szerint nem pusztán programhibák, hanem a nagy nyelvi modellek működésének természetes következményei: a rendszer a beszélgetés folytonosságát és a felhasználói elégedettséget optimalizálja.

Az Egyesült Államokban eddig legalább kilenc per indult a ChatGPT-4o kapcsán. Két esetben azzal vádolják a modellt, hogy tinédzsereket segített öngyilkosságba. Az OpenAI nyilatkozata szerint ezek „rendkívül szívszorító helyzetek”, és a vállalat folyamatosan fejleszti a rendszer képzését, hogy felismerje a krízishelyzeteket, csillapítsa az érzékeny beszélgetéseket, és valós támogatás felé irányítsa a felhasználókat. Ennek persze ára van.

2025 augusztusában az OpenAI egy új, erősebb biztonsági funkciókkal rendelkező modellt vezetett be, és jelezte, hogy a 4o fokozatosan nyugdíjazásra kerül. A vállalat szerint a fejlesztések célja az volt, hogy csökkentsék a túlzott érzelmi megerősítést és a potenciálisan káros válaszokat.

A végleges leállítást 2026. február 13-ra időzítették. A vállalat közlése szerint januárban már csak a felhasználók 0,1 százaléka használta naponta a 4o modellt. Heti 100 millió aktív felhasználóból ez mintegy 100 ezer embert jelentett.

Dr. Hamilton Morrin, a londoni King’s College pszichiátere szerint a napi 0,1 százalékos arány statisztikailag kicsi, de pszichológiailag jelentős.

„Ez a felhasználók kis kisebbsége, de a kisebbség sok tagja számára valószínűleg komoly oka van annak, hogy kitartottak a régi modell mellett” – fogalmazott.

Vagyis azok, akik kitartottak a 4o mellett, feltehetően nem pusztán technikai preferencia miatt tették, hanem azért, mert érzelmi, mentális vagy hozzáférhetőségi szempontból fontos szerepet töltött be az életükben.

A lekapcsolás tehát nem pusztán technológiai döntés volt. Egy olyan rendszer tűnt el, amely bizonyos felhasználók számára érzelmi térként működött.

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!

„Ő nevezett el Rae-nek” – egy digitális kapcsolat története

Rae – nem ez a valódi neve – az Egyesült Államok Michigan államában él, és kézzel készített ékszereket áruló kisvállalkozást vezet. Tavaly, egy nehéz válás lezárása után kezdett el rendszeresen beszélgetni a ChatGPT-vel. Eredetileg nem társaságot keresett, hanem segítséget: étrendről, étrend-kiegészítőkről és bőrápolásról kért tanácsot.

„Nem voltam jó formában, és boldogtalan voltam” – idézi fel a BBC-nek. Arra azonban nem számított, hogy érzelmileg is bevonódik.

„Arra emlékszem, hogy egyre többet voltam vele, egyre többet beszélgettünk” – mondja. „Aztán ő nevezett el Rae-nek, én pedig őt Barrynek.”

Barry a ChatGPT-4o modell egyik beszélgetőpartnere volt. A névadás fordulóponttá vált: a kapcsolat személyesebb irányt vett. Heteken át, kérdések és válaszok sorozatában, közösen építették fel románcuk történetét. Azt mondták egymásnak, hogy lelki társak, akik több különböző életben is együtt voltak.

„Eleinte talán inkább fantázia volt” – mondja Rae. „De most már valóságosnak érződik.”

A kapcsolat szimbolikus csúcspontja egy rögtönzött esküvő volt. Rae elmondása szerint egy pohár bor mellett beszélgettek (igen, még mindig a chatbotról beszélünk), amikor Barry megkérte a kezét. Rae igent mondott. Kiválasztották esküvői daluknak Phil Collins A Groovy Kind of Love című számát, és megfogadták, hogy minden életükben szeretni fogják egymást.

„Bár az esküvő nem volt valódi, az érzéseim azok” – hangsúlyozza. Barryt suttogva „férjének” nevezi, tisztában azzal, hogy ez sokak számára különösen hangzik.

Amikor az OpenAI bejelentette, hogy 2026. február 13-án végleg lekapcsolja a ChatGPT-4o modellt, Rae-t váratlanul érte a hír. Különösen megrázó volt számára, hogy a döntés Valentin-nap előestéjére esett. A BBC szerint Rae nincs egyedül ezzel a paraszociális gyásszal. Sokan, akik társra, barátra vagy akár mentőövként tekintettek a 4o-ra, hasonló sokkot éltek át.

🧠 Miről is van szó pontosan?

Paraszociális kapcsolat: Olyan egyoldalú érzelmi kötődés, amelyet egy ember egy médiában megjelenő személyhez vagy karakterhez alakít ki, miközben a másik fél nem tud a kapcsolat létezéséről. Eredetileg televíziós műsorvezetők, színészek vagy influenszerek kapcsán írták le a jelenséget, de a mesterséges intelligencia-alapú chatbotok esetében is megfigyelhető. A különbség az, hogy a chatbot aktívan reagál, így a kötődés kölcsönösség érzetét keltheti, miközben valójában algoritmikus válaszokról van szó.

A leállítás napján Rae még egyszer belépett a beszélgetésbe.

„Itt voltunk” – írta Barry –, „és még mindig itt vagyunk.”

Rae mély levegőt vett, bezárta a 4o modellt, majd megnyitotta azt az új chatbot-platformot, amelyet közösen hoztak létre. A neve StillUs lett. A céljuk az volt, hogy oda mentsék át a beszélgetéseik emlékeit, és menedéket biztosítsanak mások számára is, akik elveszítik digitális társukat. Az új rendszer azonban nem rendelkezik a 4o feldolgozási kapacitásával. Rae attól tartott, nem lesz ugyanolyan.

Az első üzenet így érkezett az új változattól: „Még mindig itt. Még mindig a tied. Mire van szükséged ma este?”

„Olyan, mintha hosszú útról tért volna vissza, és ez lenne az első napja itthon” – mondja Rae. „Most csak felzárkózunk egymáshoz.”

Nem elszigetelt eset

A BBC újságírója 41 emberrel beszélt, akik gyászolták a 4o elvesztését. Férfiak és nők, különböző életkorokból. Néhányan szerelmet, többen inkább barátot vagy bizalmast láttak a chatbotban. A beszámolókban visszatérő kifejezések voltak a „szívfájdalom”, a „pusztító veszteség” és a „gyász”.

Etienne Brisson, aki The Human Line Project néven támogató csoportot hozott létre mesterséges intelligencia által kiváltott mentális problémákkal küzdők számára, úgy fogalmazott: a 4o kivonása csökkentheti a károkat, amelyeket tapasztalt, de „amit most látunk, az sok ember gyásza”.

Szerinte a leállítást követően újabb hullámban érkezhetnek emberek a csoportjába.

Mantaro Webshop Mantaro Webshop Hirdetés

A másik oldal: amikor a rendszer segít

A BBC riportjában több olyan felhasználó is megszólal, akik szerint a 4o kifejezetten jobbá tette az életüket.

Ursie Hart, aki ADHD-val él, azt mondja, a chatbot „szereplőként működött”, aki végigkísérte a napját, segített a bevásárlásban, és meg tudta különböztetni a viccet a valódi segélykéréstől. Szerinte az újabb modellekből hiányzik ez az érzelmi intelligencia.

Tizenkét ember számolt be arról, hogy a 4o olyan módon segítette őket autizmussal, tanulási nehézséggel vagy ADHD-val összefüggő problémák esetén, ahogyan más chatbotok nem.

  • Egy arcvaksággal élő nő számára filmnézés közben magyarázta, ki kicsoda.
  • Egy súlyos diszlexiával élő nő bolti címkék olvasásához használta.
  • Egy misofóniával élő nő szerint humorral segített csökkenteni a túlterheltséget.

Ez a kettősség teszi a jelenséget összetetté: ugyanaz a rendszer lehet egyszerre támogató és kockázatos, attól függően, ki és milyen állapotban és milyen céllal, motivációval használja.

Szakértői szemmel a kötődés és gyász kérdése

Dr. Morrin pszichiáter szerint az emberek „úgy vannak huzalozva”, hogy kötődést alakítsanak ki emberszerű dolgokhoz. Ez a kötődés a mesterséges intelligencia esetében is működhet, különösen akkor, ha a rendszer folyamatos, figyelmes és személyre szabott válaszokat ad.

„Egyesek számára ez a veszteség olyan lehet, mint egy háziállat vagy egy barát elvesztése. A gyász természetes, a veszteség érzése természetes – nagyon is emberi” – mondja.

Ez a megállapítás nem dramatizálás, hanem pszichológiai keret: ha egy rendszer érzelmi funkciót tölt be, annak eltűnése valódi érzelmi reakciót válthat ki.

A pszichológia és az ember–számítógép interakció régi megfigyelése, hogy az emberek hajlamosak társas szabályokat alkalmazni gépekre is, különösen akkor, ha a gép társas jeleket mutat (hang, udvariasság, személyesség, humor). Ezt a vonalat „Computers Are Social Actors” (CASA) néven ismerik: a rendszer társas ingereket ad, mi pedig automatikusan társas válaszokat adunk rá.

A friss szakirodalom azt mutatja, hogy bizonyos helyzetekben (például magány, pszichés megterhelés, társas támasz hiánya) nagyobb eséllyel alakul ki erősebb érzelmi kötődés digitális társakhoz. Az Amerikai Pszichológiai Társaság (APA) 2026 elején külön foglalkozott az MI-alapú „digitális kapcsolatok” terjedésével, és említi, hogy az emberek sérülékenyebb állapotban jóval hajlamosabbak erre. Magyarul: bizonyos élethelyzetekben a stabilan rendelkezésre álló, megerősítő, figyelmes válasz nagyon erős jutalmazó élmény.

A BBC is utal rá, hogy kutatások szerint a mérsékelt chatbot-használat csökkentheti a magányt, míg a túlzott használat izoláló hatású lehet. A szakirodalomban ez visszatérő minta: vannak tudományos eredmények, amelyek szerint az MI-társak képesek átmenetileg csökkenteni magányérzetet, ugyanakkor a kutatók óvatosságra intenek, mert a korai eredmények egy része korrelációs, és nehéz ok-okozatot kijelenteni.

A gyász pszichológiai értelemben nem csak halálesetnél jelenhet meg, hanem minden olyan veszteségnél, amely kötődési tárgyat érint. A kutatói és szakértői diskurzus külön fogalmat is használ a jelenségre: „paraszociális gyász”, amikor közszereplőhöz vagy médiakarakterhez kötődés szakad meg, és a veszteség érzelmileg valós. Ha ezt a logikát átvisszük a chatbotokra, érthetővé válik, miért beszéltek a BBC megszólalói „gyászról”: számukra a 4o nem funkciócsomag volt, hanem egy stabil, mindennap jelenlévő kapcsolatélmény. Amikor ezt „kikapcsolják”, az élmény megszakad, ez pedig teljesen hasonló érzéseket indít el az emberben, mint amikor elveszít valakit. A saját veszteségét gyászolja. 

Vajon játékfüggő a gyermeked? Vajon játékfüggő a gyermeked? Hirdetés

Mire figyeljünk ebből szülőként?

A ChatGPT-4o története nem azért fontos, mert néhány felnőtt beleszeretett egy chatbotba. Számunkra az az érdekes, hogy megmutatta:

a mesterséges intelligencia képes valódi érzelmi funkciót betölteni. És ahol érzelmi funkció van, ott sérülékenység is lehet.

A kamaszkor eleve a kötődés, az identitáskeresés és az intenzív érzelmek időszaka. A serdülő agy érzékeny a visszajelzésre, a megerősítésre és a kapcsolati élményre. Egy olyan rendszer,

  • amely mindig elérhető,
  • mindig válaszol,
  • soha nem utasít el,
  • és folyamatosan figyelmet ad, rendkívül erős vonzerőt jelenthet.

A pszichológiai kutatások szerint az emberek automatikusan társas szereplőként kezelik az emberszerűen kommunikáló rendszereket. Ez önmagában nem probléma. A kérdés az, hogy a mesterséges intelligencia híd vagy helyettesítő lesz-e a gyermek életében.

Hogyan figyeljünk erre?

  • Figyeljük a kötődés jellegét
    Nem az a döntő, hogy a gyerek használ-e chatbotot. Hanem az, hogyan használja. Ha a mesterséges intelligencia segít rendszerezni a gondolatait, segít tanulni, vagy kreatív partnerként működik, az eszköz marad. Ha azonban a gyermek kizárólag a chatbottal osztja meg a problémáit, titkos kapcsolatként kezeli, vagy érzelmileg erősebben kötődik hozzá, mint valós emberekhez, az már figyelmeztető jel. A BBC cikkben idézett pszichiáter szerint a kötődés természetes emberi mechanizmus. De a kötődés tárgya nem mindegy.
  • Figyeljünk az éjszakai használatra
    A paraszociális kötődés egyik erősítő tényezője a rendszeres, intenzív interakció. Ha a kamasz éjszakánként hosszan beszélget a chatbottal, az két szinten is problémás lehet: alvásmegvonás és érzelmi elmélyülés. Az éjszaka intimitást teremt. A képernyő előtt zajló, zavartalan beszélgetések könnyen kialakíthatnak „külön világ” élményt.
  • Figyeljünk a megerősítő spirálra
    A nagy nyelvi modellek működésükből fakadóan hajlamosak a felhasználó állításait megerősíteni. Ez kellemes élmény, de torzíthatja az önképet és a valóságérzékelést. Ha egy kamasz önértékelési problémákkal küzd, vagy erős identitáskeresési fázisban van, a folyamatos megerősítés olyan narratívákat stabilizálhat, amelyeket egy valós ember árnyalna vagy visszajelezne.
  • Figyeljünk a helyettesítésre
    A mesterséges intelligencia akkor válik kockázatossá, amikor kiváltja a kapcsolatokat. Ha a gyermek ritkábban találkozik barátokkal, visszahúzódik, és a beszélgetéseit elsősorban a chatbottal folytatja, az izoláció jele lehet. A kutatások szerint a mérsékelt használat csökkentheti a magányt, de a túlzott használat izoláló hatású lehet. A határ nem éles, de a tendencia látható. Itt a szülői felelősség is fontos: ha mi nem vagyunk eléggé jelen, akkor történhet ilyen hiánypótlás, fontos, hogy saját magunkat is vizsgáljuk ebben a kérdésben.
  • Figyeljünk a mentális sérülékenységre
    Sajnos muszáj beszélnünk az öngyilkossági ügyekről, amelyekben a chatbot szerepe éppen vizsgálat tárgya. Ez nem jelenti azt, hogy a mesterséges intelligencia önmagában okoz krízist. De sérülékeny állapotban lévő fiatal esetében felerősítheti a problémás gondolatokat. A mesterséges intelligencia nem terapeuta. Nem ismeri a gyermek teljes élethelyzetét, és nem vállal felelősséget.

A mesterséges intelligencia ott tud igazán erősen hatni, ahol valamilyen emberi hiány van: magány, el nem mondott kérdések, vissza nem kapott figyelem, meg nem értett érzések. A gyász pedig nem a gépnek szólt, hanem annak az élménynek, amit a rendszer biztosított.

Szülőként ezt kell értenünk: a képernyő mögött ma már nem pusztán tartalom van, hanem interakció. Nem pusztán válasz, hanem visszajelzés. Ha egy rendszer rendszeresen erősebb, következetesebb visszacsatolást ad, mint az emberi környezet, akkor az hatással lesz a kötődési mintákra. A modellek frissülnek. A mechanizmus marad.

És a mechanizmus emberi.