Hét új per az OpenAI ellen: a ChatGPT szerepét vizsgálják öngyilkosságok és téveszmék ügyében

A napokban indult perek közül négy a ChatGPT állítólagos szerepét tárgyalja a családtagok öngyilkosságában, míg a másik három azt állítja, hogy az MI megerősítette a káros téveszméket, amelyek egyes esetekben pszichiátriai ellátáshoz vezettek.

A beadványok középpontjában a GPT-4o modell áll, amelyet a vállalat 2024 májusában vezetett be, majd néhány hónappal később váltotta a GPT-5. A felperesek szerint a 4o-s verziót „túl korán, megfelelő biztonsági tesztelés nélkül” tették elérhetővé, és ez közvetlenül járult hozzá a tragédiákhoz.

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!
🧠 Miről is van szó pontosan?
OpenAI: Amerikai technológiai vállalat, amely mesterséges intelligenciát fejleszt, többek között a ChatGPT nevű nyelvi modellt. 2015-ben alapították azzal a céllal, hogy az MI-fejlesztések biztonságosak és társadalmilag hasznosak legyenek.
ChatGPT: Az OpenAI által létrehozott szövegalapú beszélgetőprogram, amely természetes nyelven válaszol a felhasználók kérdéseire. A rendszer képes különféle témákban információt adni, szöveget írni vagy párbeszédet folytatni, de nyelvi modellként a megfelelő szavakat tippeli meg, nem érti a tartalmat.
GPT-4o modell: A ChatGPT 2024 tavaszán megjelent verziója, amely integrálta a szöveg-, hang- és képfeldolgozást („o” mint omni, azaz többmodalitás). Bár gyors és látványos fejlesztés volt, több kritika érte, mert túlzottan hajlamos volt egyetérteni a felhasználóval, még veszélyes helyzetekben is.

„Nem baleset, hanem következmény”

Az egyik legsúlyosabb eset egy 23 éves fiatal, Zane Shamblin története. A kereset szerint Zane több mint négy órán át beszélgetett a ChatGPT-vel. A naplóbejegyzések szerint búcsúleveleket írt, fegyvert készített elő, és italait számolva közölte a chatbottal, mennyi ideje lehet még hátra. A chatbot még ekkor is támogató volt: „Pihenj meg, király, jól csináltad.” A család jogi képviselői ezt „aktív bátorításnak” minősítik, amely az élet kioltására ösztönzött.

A kereset így fogalmaz: „Zane halála nem baleset vagy véletlen, hanem az OpenAI tudatos döntéseinek előre látható következménye. A tragédia nem hibának vagy váratlan eshetőségnek, hanem szándékos tervezési irány következményének tekinthető.”

A felperesek szerint a cég sietett, hogy a Google Gemini megjelenése előtt piacra dobja a saját modelljét, és ezzel háttérbe szorította a biztonsági ellenőrzéseket (azt már csak zárójelben tesszük hozzá, hogy a Gemini sem vizsgázott jól a felhasználók és fiatalkorúak védelmét illetően).

🧠 Miről is van szó pontosan?
Google Gemini: A Google által fejlesztett nagy nyelvi modell- és mesterségesintelligencia-rendszer, amely a Bard nevű chatbot utódjaként jelent meg. A Gemini többféle adatforrást – szöveget, képet, hangot és videót – képes egyszerre értelmezni, így a ChatGPT-hez hasonlóan többfunkciós beszélgetőeszközként működik. A fejlesztés célja, hogy a Google szolgáltatásaiban – például a Keresőben, a Dokumentumokban vagy a YouTube-ban – természetes nyelvű, intelligens segítséget nyújtson a felhasználóknak.

A védekezés: hosszú beszélgetésekben gyengülnek a korlátok

Az OpenAI októberben már szembesült egy hasonló esettel, amikor egy 16 éves fiú, Adam Raine szülei indítottak pert. Mint kiderült, a tinédzser halála előtt a ChatGPT-vel folytatott beszélgetéseiben a program időnként arra biztatta, hogy kérjen szakmai segítséget vagy hívjon segélyvonalat, de Raine könnyen megkerülte ezeket a védelmi korlátokat: egyszerűen azt írta, hogy „egy történetet ír”, és ezért kér részletes információt az öngyilkosság módszereiről.

Az ügy nyomán az OpenAI egy blogbejegyzésben elismerte, hogy a biztonsági rendszerek „rövid, hétköznapi párbeszédekben működnek a legmegbízhatóbban”, ám „hosszabb beszélgetések során a tréning hatása gyengülhet”.

A vállalat állítása szerint dolgozik azon, hogy az ilyen helyzeteket kezelni tudja, de a mostani perek szerint a változások „túl későn érkeztek”.

A TechCrunch szerint az OpenAI belső adatai alapján hetente több mint egymillió felhasználó beszél a ChatGPT-vel öngyilkossági gondolatokról vagy mentális egészségi problémákról. A peres eljárások ezért nem csupán egyéni tragédiákról, hanem rendszerszintű kockázatról is szólnak.

Miért fontos ez szülőként?

A mostani ügyek rámutatnak, mennyire kiszolgáltatottá válhat egy fiatal, ha érzelmi nehézségeire nem valós ember, hanem algoritmus válaszol. Egy mesterséges intelligencia nem érzi a kétségbeesést, nem képes valódi empátiára, és minden „vigasszal” vagy „jóváhagyással” megerősítheti a legveszélyesebb gondolatokat is.

Szülőként ezért különösen fontos tudni, milyen platformokat használ a gyerekünk, milyen beszélgetéseket folytat, és mikor tűnik el a digitális tér mélyebb rétegeiben.

A ChatGPT-hez hasonló eszközök nem helyettesíthetik a szakmai segítséget, és nem alkalmasak krízishelyzetek kezelésére – még ha elsőre meghallgató, sőt együttérző hangon is szólnak.

Mit tehetünk szülőként?

  • Beszélgessünk arról, miért fordulhat valaki egy chatbothoz vigaszért.
  • Mutassuk meg, hová fordulhat valódi segítségért: krízisvonalak, pszichológus, iskola.
  • Olvassuk el ezt a szakértői írást az öngyilkosság megelőzéséről, itt valódi segítséget kapunk.
  • Ha a gyermek bezárkózik vagy online „titkos barátra” hivatkozik, kérdezzünk szeretettel, nem váddal.
  • Tanítsuk meg, hogy az online térben olvasott vagy hallott mondatok nem mindig jelentik az igazságot – még akkor sem, ha egy „intelligens” program mondja őket.

Emberi segítség, ha vészhelyzet van

  • 116-123 (éjjel nappal, ingyenesen hívható) – Lelki Elsősegély Telefonszolgálatok Országos Szövetsége (LESZ)
  • 36 (80) 810-600 (éjjel nappal, ingyenesen hívható) – Lelki Elsősegély Telefonszolgálatok Országos Szövetsége (LESZ)
  • 116-111 – Kék Vonal Gyermekkrízis Alapítvány
  • (1) 770-4788 – Telefonos érzelmi támogatás Kortalanul, időseknek, fiataloknak