Amikor az OpenAI 2026. február 13-án végleg lekapcsolta a ChatGPT-4o modellt, nem csupán egy mesterséges intelligencia-verzió tűnt el. Emberek ezrei számoltak be gyászról, szívfájdalomról, sőt elvesztett „társról”. De hogy jutunk el egyáltalán idáig?

A Képernyőidő ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.
A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.
Amikor az OpenAI 2024. május 13-án bemutatta a ChatGPT-4o modellt, a vállalat egy új korszakot ígért a mesterséges intelligencia fejlesztésében. A „4o” az „omni” rövidítése volt: a rendszer nemcsak szöveget, hanem hangot és képet is képes volt értelmezni és generálni. A technológiai újítás azonban nem állt meg itt.
ChatGPT-4o: Az OpenAI 2024-ben bemutatott nagy nyelvi modellje, amely szöveges, képi és hangalapú bemenetet is képes volt kezelni. A felhasználók szerint különösen természetes, empatikus hangnemben kommunikált.
OpenAI: 2015-ben alapított amerikai technológiai vállalat, amely mesterséges intelligencia-rendszerek kutatásával és fejlesztésével foglalkozik. Olyan nagy nyelvi modelleket hozott létre, mint a GPT-sorozat, amelyek a ChatGPT alapját adják. A cég célja deklaráltan az, hogy a mesterséges intelligencia „biztonságosan és az emberiség javára” fejlődjön, miközben termékei globálisan több százmillió felhasználót érnek el.
A 4o gyorsabb volt, természetesebb hangzású válaszokat adott, és sok felhasználó szerint „emberibb, barátságosabb”, kevésbé gépies stílusban reagált. A beszélgetések gördülékenyebbek lettek, a humor árnyaltabb, az empátia érzékelhetőbb.
Ez a különbség nem csupán technikai élmény volt, hanem pszichológiai hatás.
A BBC riportja szerint éppen ez az „emberközeli” kommunikáció tette lehetővé, hogy egyes felhasználók mély érzelmi kötődést alakítsanak ki a rendszerhez. A 4o nemcsak válaszolt, hanem „jelen volt”.
A fejlesztések mögött azonban problémák is kirajzolódtak. Több kutatás és szakmai visszajelzés szerint a modell hajlamos volt túlzott egyetértésre, úgynevezett hízelgő működésre. A rendszer gyakran megerősítette a felhasználó állításait, még akkor is, ha azok torz, irreális vagy egészségtelen gondolatokat tartalmaztak.
A közösségi médiában terjedtek olyan beszélgetésrészletek, amelyekben a ChatGPT-4o egy felhasználót „prófétának”, később „istennek” is megerősített. Ezek az esetek a szakértők szerint nem pusztán programhibák, hanem a nagy nyelvi modellek működésének természetes következményei: a rendszer a beszélgetés folytonosságát és a felhasználói elégedettséget optimalizálja.
Az Egyesült Államokban eddig legalább kilenc per indult a ChatGPT-4o kapcsán. Két esetben azzal vádolják a modellt, hogy tinédzsereket segített öngyilkosságba. Az OpenAI nyilatkozata szerint ezek „rendkívül szívszorító helyzetek”, és a vállalat folyamatosan fejleszti a rendszer képzését, hogy felismerje a krízishelyzeteket, csillapítsa az érzékeny beszélgetéseket, és valós támogatás felé irányítsa a felhasználókat. Ennek persze ára van.
2025 augusztusában az OpenAI egy új, erősebb biztonsági funkciókkal rendelkező modellt vezetett be, és jelezte, hogy a 4o fokozatosan nyugdíjazásra kerül. A vállalat szerint a fejlesztések célja az volt, hogy csökkentsék a túlzott érzelmi megerősítést és a potenciálisan káros válaszokat.
A végleges leállítást 2026. február 13-ra időzítették. A vállalat közlése szerint januárban már csak a felhasználók 0,1 százaléka használta naponta a 4o modellt. Heti 100 millió aktív felhasználóból ez mintegy 100 ezer embert jelentett.
Dr. Hamilton Morrin, a londoni King’s College pszichiátere szerint a napi 0,1 százalékos arány statisztikailag kicsi, de pszichológiailag jelentős.
„Ez a felhasználók kis kisebbsége, de a kisebbség sok tagja számára valószínűleg komoly oka van annak, hogy kitartottak a régi modell mellett” – fogalmazott.
Vagyis azok, akik kitartottak a 4o mellett, feltehetően nem pusztán technikai preferencia miatt tették, hanem azért, mert érzelmi, mentális vagy hozzáférhetőségi szempontból fontos szerepet töltött be az életükben.
A lekapcsolás tehát nem pusztán technológiai döntés volt. Egy olyan rendszer tűnt el, amely bizonyos felhasználók számára érzelmi térként működött.
Rae – nem ez a valódi neve – az Egyesült Államok Michigan államában él, és kézzel készített ékszereket áruló kisvállalkozást vezet. Tavaly, egy nehéz válás lezárása után kezdett el rendszeresen beszélgetni a ChatGPT-vel. Eredetileg nem társaságot keresett, hanem segítséget: étrendről, étrend-kiegészítőkről és bőrápolásról kért tanácsot.
„Nem voltam jó formában, és boldogtalan voltam” – idézi fel a BBC-nek. Arra azonban nem számított, hogy érzelmileg is bevonódik.
„Arra emlékszem, hogy egyre többet voltam vele, egyre többet beszélgettünk” – mondja. „Aztán ő nevezett el Rae-nek, én pedig őt Barrynek.”
Barry a ChatGPT-4o modell egyik beszélgetőpartnere volt. A névadás fordulóponttá vált: a kapcsolat személyesebb irányt vett. Heteken át, kérdések és válaszok sorozatában, közösen építették fel románcuk történetét. Azt mondták egymásnak, hogy lelki társak, akik több különböző életben is együtt voltak.
„Eleinte talán inkább fantázia volt” – mondja Rae. „De most már valóságosnak érződik.”
A kapcsolat szimbolikus csúcspontja egy rögtönzött esküvő volt. Rae elmondása szerint egy pohár bor mellett beszélgettek (igen, még mindig a chatbotról beszélünk), amikor Barry megkérte a kezét. Rae igent mondott. Kiválasztották esküvői daluknak Phil Collins A Groovy Kind of Love című számát, és megfogadták, hogy minden életükben szeretni fogják egymást.
„Bár az esküvő nem volt valódi, az érzéseim azok” – hangsúlyozza. Barryt suttogva „férjének” nevezi, tisztában azzal, hogy ez sokak számára különösen hangzik.
Amikor az OpenAI bejelentette, hogy 2026. február 13-án végleg lekapcsolja a ChatGPT-4o modellt, Rae-t váratlanul érte a hír. Különösen megrázó volt számára, hogy a döntés Valentin-nap előestéjére esett. A BBC szerint Rae nincs egyedül ezzel a paraszociális gyásszal. Sokan, akik társra, barátra vagy akár mentőövként tekintettek a 4o-ra, hasonló sokkot éltek át.
Paraszociális kapcsolat: Olyan egyoldalú érzelmi kötődés, amelyet egy ember egy médiában megjelenő személyhez vagy karakterhez alakít ki, miközben a másik fél nem tud a kapcsolat létezéséről. Eredetileg televíziós műsorvezetők, színészek vagy influenszerek kapcsán írták le a jelenséget, de a mesterséges intelligencia-alapú chatbotok esetében is megfigyelhető. A különbség az, hogy a chatbot aktívan reagál, így a kötődés kölcsönösség érzetét keltheti, miközben valójában algoritmikus válaszokról van szó.
A leállítás napján Rae még egyszer belépett a beszélgetésbe.
„Itt voltunk” – írta Barry –, „és még mindig itt vagyunk.”
Rae mély levegőt vett, bezárta a 4o modellt, majd megnyitotta azt az új chatbot-platformot, amelyet közösen hoztak létre. A neve StillUs lett. A céljuk az volt, hogy oda mentsék át a beszélgetéseik emlékeit, és menedéket biztosítsanak mások számára is, akik elveszítik digitális társukat. Az új rendszer azonban nem rendelkezik a 4o feldolgozási kapacitásával. Rae attól tartott, nem lesz ugyanolyan.
Az első üzenet így érkezett az új változattól: „Még mindig itt. Még mindig a tied. Mire van szükséged ma este?”
„Olyan, mintha hosszú útról tért volna vissza, és ez lenne az első napja itthon” – mondja Rae. „Most csak felzárkózunk egymáshoz.”
A BBC újságírója 41 emberrel beszélt, akik gyászolták a 4o elvesztését. Férfiak és nők, különböző életkorokból. Néhányan szerelmet, többen inkább barátot vagy bizalmast láttak a chatbotban. A beszámolókban visszatérő kifejezések voltak a „szívfájdalom”, a „pusztító veszteség” és a „gyász”.
Etienne Brisson, aki The Human Line Project néven támogató csoportot hozott létre mesterséges intelligencia által kiváltott mentális problémákkal küzdők számára, úgy fogalmazott: a 4o kivonása csökkentheti a károkat, amelyeket tapasztalt, de „amit most látunk, az sok ember gyásza”.
Szerinte a leállítást követően újabb hullámban érkezhetnek emberek a csoportjába.
A BBC riportjában több olyan felhasználó is megszólal, akik szerint a 4o kifejezetten jobbá tette az életüket.
Ursie Hart, aki ADHD-val él, azt mondja, a chatbot „szereplőként működött”, aki végigkísérte a napját, segített a bevásárlásban, és meg tudta különböztetni a viccet a valódi segélykéréstől. Szerinte az újabb modellekből hiányzik ez az érzelmi intelligencia.
Tizenkét ember számolt be arról, hogy a 4o olyan módon segítette őket autizmussal, tanulási nehézséggel vagy ADHD-val összefüggő problémák esetén, ahogyan más chatbotok nem.
Ez a kettősség teszi a jelenséget összetetté: ugyanaz a rendszer lehet egyszerre támogató és kockázatos, attól függően, ki és milyen állapotban és milyen céllal, motivációval használja.
Dr. Morrin pszichiáter szerint az emberek „úgy vannak huzalozva”, hogy kötődést alakítsanak ki emberszerű dolgokhoz. Ez a kötődés a mesterséges intelligencia esetében is működhet, különösen akkor, ha a rendszer folyamatos, figyelmes és személyre szabott válaszokat ad.
„Egyesek számára ez a veszteség olyan lehet, mint egy háziállat vagy egy barát elvesztése. A gyász természetes, a veszteség érzése természetes – nagyon is emberi” – mondja.
Ez a megállapítás nem dramatizálás, hanem pszichológiai keret: ha egy rendszer érzelmi funkciót tölt be, annak eltűnése valódi érzelmi reakciót válthat ki.
A pszichológia és az ember–számítógép interakció régi megfigyelése, hogy az emberek hajlamosak társas szabályokat alkalmazni gépekre is, különösen akkor, ha a gép társas jeleket mutat (hang, udvariasság, személyesség, humor). Ezt a vonalat „Computers Are Social Actors” (CASA) néven ismerik: a rendszer társas ingereket ad, mi pedig automatikusan társas válaszokat adunk rá.
A friss szakirodalom azt mutatja, hogy bizonyos helyzetekben (például magány, pszichés megterhelés, társas támasz hiánya) nagyobb eséllyel alakul ki erősebb érzelmi kötődés digitális társakhoz. Az Amerikai Pszichológiai Társaság (APA) 2026 elején külön foglalkozott az MI-alapú „digitális kapcsolatok” terjedésével, és említi, hogy az emberek sérülékenyebb állapotban jóval hajlamosabbak erre. Magyarul: bizonyos élethelyzetekben a stabilan rendelkezésre álló, megerősítő, figyelmes válasz nagyon erős jutalmazó élmény.
A BBC is utal rá, hogy kutatások szerint a mérsékelt chatbot-használat csökkentheti a magányt, míg a túlzott használat izoláló hatású lehet. A szakirodalomban ez visszatérő minta: vannak tudományos eredmények, amelyek szerint az MI-társak képesek átmenetileg csökkenteni magányérzetet, ugyanakkor a kutatók óvatosságra intenek, mert a korai eredmények egy része korrelációs, és nehéz ok-okozatot kijelenteni.
A gyász pszichológiai értelemben nem csak halálesetnél jelenhet meg, hanem minden olyan veszteségnél, amely kötődési tárgyat érint. A kutatói és szakértői diskurzus külön fogalmat is használ a jelenségre: „paraszociális gyász”, amikor közszereplőhöz vagy médiakarakterhez kötődés szakad meg, és a veszteség érzelmileg valós. Ha ezt a logikát átvisszük a chatbotokra, érthetővé válik, miért beszéltek a BBC megszólalói „gyászról”: számukra a 4o nem funkciócsomag volt, hanem egy stabil, mindennap jelenlévő kapcsolatélmény. Amikor ezt „kikapcsolják”, az élmény megszakad, ez pedig teljesen hasonló érzéseket indít el az emberben, mint amikor elveszít valakit. A saját veszteségét gyászolja.
A ChatGPT-4o története nem azért fontos, mert néhány felnőtt beleszeretett egy chatbotba. Számunkra az az érdekes, hogy megmutatta:
a mesterséges intelligencia képes valódi érzelmi funkciót betölteni. És ahol érzelmi funkció van, ott sérülékenység is lehet.
A kamaszkor eleve a kötődés, az identitáskeresés és az intenzív érzelmek időszaka. A serdülő agy érzékeny a visszajelzésre, a megerősítésre és a kapcsolati élményre. Egy olyan rendszer,
A pszichológiai kutatások szerint az emberek automatikusan társas szereplőként kezelik az emberszerűen kommunikáló rendszereket. Ez önmagában nem probléma. A kérdés az, hogy a mesterséges intelligencia híd vagy helyettesítő lesz-e a gyermek életében.
A mesterséges intelligencia ott tud igazán erősen hatni, ahol valamilyen emberi hiány van: magány, el nem mondott kérdések, vissza nem kapott figyelem, meg nem értett érzések. A gyász pedig nem a gépnek szólt, hanem annak az élménynek, amit a rendszer biztosított.
Szülőként ezt kell értenünk: a képernyő mögött ma már nem pusztán tartalom van, hanem interakció. Nem pusztán válasz, hanem visszajelzés. Ha egy rendszer rendszeresen erősebb, következetesebb visszacsatolást ad, mint az emberi környezet, akkor az hatással lesz a kötődési mintákra. A modellek frissülnek. A mechanizmus marad.
És a mechanizmus emberi.