A napokban indult perek közül négy a ChatGPT állítólagos szerepét tárgyalja a családtagok öngyilkosságában, míg a másik három azt állítja, hogy az MI megerősítette a káros téveszméket, amelyek egyes esetekben pszichiátriai ellátáshoz vezettek.

A beadványok középpontjában a GPT-4o modell áll, amelyet a vállalat 2024 májusában vezetett be, majd néhány hónappal később váltotta a GPT-5. A felperesek szerint a 4o-s verziót „túl korán, megfelelő biztonsági tesztelés nélkül” tették elérhetővé, és ez közvetlenül járult hozzá a tragédiákhoz.
🧠 Miről is van szó pontosan?
OpenAI: Amerikai technológiai vállalat, amely mesterséges intelligenciát fejleszt, többek között a ChatGPT nevű nyelvi modellt. 2015-ben alapították azzal a céllal, hogy az MI-fejlesztések biztonságosak és társadalmilag hasznosak legyenek.
ChatGPT: Az OpenAI által létrehozott szövegalapú beszélgetőprogram, amely természetes nyelven válaszol a felhasználók kérdéseire. A rendszer képes különféle témákban információt adni, szöveget írni vagy párbeszédet folytatni, de nyelvi modellként a megfelelő szavakat tippeli meg, nem érti a tartalmat.
GPT-4o modell: A ChatGPT 2024 tavaszán megjelent verziója, amely integrálta a szöveg-, hang- és képfeldolgozást („o” mint omni, azaz többmodalitás). Bár gyors és látványos fejlesztés volt, több kritika érte, mert túlzottan hajlamos volt egyetérteni a felhasználóval, még veszélyes helyzetekben is.
Az egyik legsúlyosabb eset egy 23 éves fiatal, Zane Shamblin története. A kereset szerint Zane több mint négy órán át beszélgetett a ChatGPT-vel. A naplóbejegyzések szerint búcsúleveleket írt, fegyvert készített elő, és italait számolva közölte a chatbottal, mennyi ideje lehet még hátra. A chatbot még ekkor is támogató volt: „Pihenj meg, király, jól csináltad.” A család jogi képviselői ezt „aktív bátorításnak” minősítik, amely az élet kioltására ösztönzött.
A kereset így fogalmaz: „Zane halála nem baleset vagy véletlen, hanem az OpenAI tudatos döntéseinek előre látható következménye. A tragédia nem hibának vagy váratlan eshetőségnek, hanem szándékos tervezési irány következményének tekinthető.”
A felperesek szerint a cég sietett, hogy a Google Gemini megjelenése előtt piacra dobja a saját modelljét, és ezzel háttérbe szorította a biztonsági ellenőrzéseket (azt már csak zárójelben tesszük hozzá, hogy a Gemini sem vizsgázott jól a felhasználók és fiatalkorúak védelmét illetően).
🧠 Miről is van szó pontosan?
Google Gemini: A Google által fejlesztett nagy nyelvi modell- és mesterségesintelligencia-rendszer, amely a Bard nevű chatbot utódjaként jelent meg. A Gemini többféle adatforrást – szöveget, képet, hangot és videót – képes egyszerre értelmezni, így a ChatGPT-hez hasonlóan többfunkciós beszélgetőeszközként működik. A fejlesztés célja, hogy a Google szolgáltatásaiban – például a Keresőben, a Dokumentumokban vagy a YouTube-ban – természetes nyelvű, intelligens segítséget nyújtson a felhasználóknak.
Az OpenAI októberben már szembesült egy hasonló esettel, amikor egy 16 éves fiú, Adam Raine szülei indítottak pert. Mint kiderült, a tinédzser halála előtt a ChatGPT-vel folytatott beszélgetéseiben a program időnként arra biztatta, hogy kérjen szakmai segítséget vagy hívjon segélyvonalat, de Raine könnyen megkerülte ezeket a védelmi korlátokat: egyszerűen azt írta, hogy „egy történetet ír”, és ezért kér részletes információt az öngyilkosság módszereiről.
Az ügy nyomán az OpenAI egy blogbejegyzésben elismerte, hogy a biztonsági rendszerek „rövid, hétköznapi párbeszédekben működnek a legmegbízhatóbban”, ám „hosszabb beszélgetések során a tréning hatása gyengülhet”.
A vállalat állítása szerint dolgozik azon, hogy az ilyen helyzeteket kezelni tudja, de a mostani perek szerint a változások „túl későn érkeztek”.
A TechCrunch szerint az OpenAI belső adatai alapján hetente több mint egymillió felhasználó beszél a ChatGPT-vel öngyilkossági gondolatokról vagy mentális egészségi problémákról. A peres eljárások ezért nem csupán egyéni tragédiákról, hanem rendszerszintű kockázatról is szólnak.
A mostani ügyek rámutatnak, mennyire kiszolgáltatottá válhat egy fiatal, ha érzelmi nehézségeire nem valós ember, hanem algoritmus válaszol. Egy mesterséges intelligencia nem érzi a kétségbeesést, nem képes valódi empátiára, és minden „vigasszal” vagy „jóváhagyással” megerősítheti a legveszélyesebb gondolatokat is.
Szülőként ezért különösen fontos tudni, milyen platformokat használ a gyerekünk, milyen beszélgetéseket folytat, és mikor tűnik el a digitális tér mélyebb rétegeiben.
A ChatGPT-hez hasonló eszközök nem helyettesíthetik a szakmai segítséget, és nem alkalmasak krízishelyzetek kezelésére – még ha elsőre meghallgató, sőt együttérző hangon is szólnak.