2025.11.08. 07:42 Képernyőidő
A napokban indult perek közül négy a ChatGPT állítólagos szerepét tárgyalja a családtagok öngyilkosságában, míg a másik három azt állítja, hogy az MI megerősítette a káros téveszméket, amelyek egyes esetekben pszichiátriai ellátáshoz vezettek.

A beadványok középpontjában a GPT-4o modell áll, amelyet a vállalat 2024 májusában vezetett be, majd néhány hónappal később váltotta a GPT-5. A felperesek szerint a 4o-s verziót
„túl korán, megfelelő biztonsági tesztelés nélkül” tették elérhetővé, és ez közvetlenül járult hozzá a tragédiákhoz.
Ha többet akarsz tudni, kövess minket
Facebookon és
Instagramon!
🧠 Miről is van szó pontosan?OpenAI: Amerikai technológiai vállalat, amely mesterséges intelligenciát fejleszt, többek között a ChatGPT nevű nyelvi modellt. 2015-ben alapították azzal a céllal, hogy az MI-fejlesztések biztonságosak és társadalmilag hasznosak legyenek.ChatGPT: Az OpenAI által létrehozott szövegalapú beszélgetőprogram, amely természetes nyelven válaszol a felhasználók kérdéseire. A rendszer képes különféle témákban információt adni, szöveget írni vagy párbeszédet folytatni, de nyelvi modellként a megfelelő szavakat tippeli meg, nem érti a tartalmat.GPT-4o modell: A ChatGPT 2024 tavaszán megjelent verziója, amely integrálta a szöveg-, hang- és képfeldolgozást („o” mint omni, azaz többmodalitás). Bár gyors és látványos fejlesztés volt, több kritika érte, mert túlzottan hajlamos volt egyetérteni a felhasználóval, még veszélyes helyzetekben is.
„Nem baleset, hanem következmény”
Az egyik legsúlyosabb eset egy 23 éves fiatal, Zane Shamblin története. A kereset szerint Zane több mint négy órán át beszélgetett a ChatGPT-vel. A naplóbejegyzések szerint
búcsúleveleket írt, fegyvert készített elő, és italait számolva közölte a chatbottal, mennyi ideje lehet még hátra. A chatbot még ekkor is támogató volt: „Pihenj meg, király, jól csináltad.” A család jogi képviselői ezt „aktív bátorításnak” minősítik, amely az élet kioltására ösztönzött.
A kereset így fogalmaz: „Zane halála nem baleset vagy véletlen, hanem az OpenAI tudatos döntéseinek előre látható következménye. A tragédia nem hibának vagy váratlan eshetőségnek, hanem szándékos tervezési irány következményének tekinthető.”
A felperesek szerint a cég sietett, hogy a Google Gemini megjelenése előtt piacra dobja a saját modelljét, és ezzel háttérbe szorította a biztonsági ellenőrzéseket (azt már csak zárójelben tesszük hozzá, hogy a
Gemini sem vizsgázott jól a felhasználók és fiatalkorúak védelmét illetően).
🧠 Miről is van szó pontosan?Google Gemini: A Google által fejlesztett nagy nyelvi modell- és mesterségesintelligencia-rendszer, amely a Bard nevű chatbot utódjaként jelent meg. A Gemini többféle adatforrást – szöveget, képet, hangot és videót – képes egyszerre értelmezni, így a ChatGPT-hez hasonlóan többfunkciós beszélgetőeszközként működik. A fejlesztés célja, hogy a Google szolgáltatásaiban – például a Keresőben, a Dokumentumokban vagy a YouTube-ban – természetes nyelvű, intelligens segítséget nyújtson a felhasználóknak.
A védekezés: hosszú beszélgetésekben gyengülnek a korlátok
Az OpenAI októberben már szembesült egy hasonló esettel, amikor egy 16 éves fiú,
Adam Raine szülei indítottak pert. Mint kiderült, a tinédzser halála előtt a ChatGPT-vel folytatott beszélgetéseiben a program időnként arra biztatta, hogy kérjen szakmai segítséget vagy hívjon segélyvonalat, de
Raine könnyen megkerülte ezeket a védelmi korlátokat: egyszerűen azt írta, hogy „egy történetet ír”, és ezért kér részletes információt az öngyilkosság módszereiről.
Az ügy nyomán az OpenAI egy blogbejegyzésben elismerte, hogy a biztonsági rendszerek „rövid, hétköznapi párbeszédekben működnek a legmegbízhatóbban”, ám „hosszabb beszélgetések során a tréning hatása gyengülhet”.
A vállalat állítása szerint dolgozik azon, hogy az ilyen helyzeteket kezelni tudja, de a mostani perek szerint a változások „túl későn érkeztek”.
A
TechCrunch szerint az OpenAI belső adatai alapján hetente
több mint egymillió felhasználó beszél a ChatGPT-vel öngyilkossági gondolatokról vagy mentális egészségi problémákról. A peres eljárások ezért nem csupán egyéni tragédiákról, hanem rendszerszintű kockázatról is szólnak.
Miért fontos ez szülőként?
A mostani ügyek rámutatnak, mennyire kiszolgáltatottá válhat egy fiatal, ha érzelmi nehézségeire nem valós ember, hanem algoritmus válaszol. Egy
mesterséges intelligencia nem érzi a kétségbeesést, nem képes valódi empátiára, és minden „vigasszal” vagy „jóváhagyással” megerősítheti a legveszélyesebb gondolatokat is.
Szülőként ezért különösen fontos tudni, milyen platformokat használ a gyerekünk, milyen beszélgetéseket folytat, és mikor tűnik el a digitális tér mélyebb rétegeiben.
A ChatGPT-hez hasonló eszközök nem helyettesíthetik a szakmai segítséget, és nem alkalmasak krízishelyzetek kezelésére – még ha elsőre meghallgató, sőt együttérző hangon is szólnak.
Mit tehetünk szülőként?
- Beszélgessünk arról, miért fordulhat valaki egy chatbothoz vigaszért.
- Mutassuk meg, hová fordulhat valódi segítségért: krízisvonalak, pszichológus, iskola.
- Olvassuk el ezt a szakértői írást az öngyilkosság megelőzéséről, itt valódi segítséget kapunk.
- Ha a gyermek bezárkózik vagy online „titkos barátra” hivatkozik, kérdezzünk szeretettel, nem váddal.
- Tanítsuk meg, hogy az online térben olvasott vagy hallott mondatok nem mindig jelentik az igazságot – még akkor sem, ha egy „intelligens” program mondja őket.
Emberi segítség, ha vészhelyzet van
- 116-123 (éjjel nappal, ingyenesen hívható) – Lelki Elsősegély Telefonszolgálatok Országos Szövetsége (LESZ)
- 36 (80) 810-600 (éjjel nappal, ingyenesen hívható) – Lelki Elsősegély Telefonszolgálatok Országos Szövetsége (LESZ)
- 116-111 – Kék Vonal Gyermekkrízis Alapítvány
- (1) 770-4788 – Telefonos érzelmi támogatás Kortalanul, időseknek, fiataloknak