A ChatGPT már százezres nagyságrendben észlel mentális problémákat a felhasználóknál

A mesterséges intelligencia most először tartott tükröt önmagának. Az OpenAI friss adatai szerint a ChatGPT felhasználóinak töredéke ugyan, de így is több százezer ember mutathat a mentális krízis jeleit – öngyilkossági gondolatoktól a pszichotikus epizódokig.

Az OpenAI közlése szerint a ChatGPT heti aktív felhasználóinak 0,07 százaléka olyan jeleket mutat, amelyek mentális egészségügyi vészhelyzetre utalhatnak. Ez az arány aprónak tűnik, ám az OpenAI szerint a chatbotot jelenleg mintegy 800 millió ember használja hetente, így a százalékok százezrekre fordíthatók át.

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!
🧠 Miről is van szó pontosan?
OpenAI: 2015-ben alapított amerikai kutatócég, amely a mesterséges intelligencia biztonságos és emberközpontú fejlesztését tűzte ki célul. Az OpenAI fejleszti többek között a GPT-modellcsaládot és a ChatGPT-t, valamint más generatív AI-alkalmazásokat, például a DALL·E képgenerátort.
ChatGPT: Az OpenAI által fejlesztett, nagynyelvi modellre épülő beszélgetőprogram, amely természetes nyelven képes válaszolni, magyarázni, szöveget alkotni és érzelmileg is reagálni. Bár nem ember, kommunikációs stílusa sokszor emberi érzelmeket utánoz, ezért egyes felhasználókban valós kapcsolat illúzióját keltheti.

Ráadásul a beszélgetések 0,15 százalékában konkrét utalás történik öngyilkossági gondolatokra vagy tervezésre – ami több mint egymillió embert jelenthet világszerte.
Az anyacég mindezt azért hozta nyilvánosságra, hogy jelezze:

a mesterséges intelligencia-modellek fejlesztése közben a lelki biztonság kérdése már nem kerülhető meg.

Százezrek a láthatatlan statisztikában

Az OpenAI közleménye szerint a ChatGPT-t világszerte több mint 170 pszichiáter, pszichológus és háziorvos segíti, 60 országban. Ők dolgozták ki azokat a válaszokat, amelyek krízishelyzetben empatikus, de biztonságos módon irányítják a felhasználót a valódi segítség felé.

A fejlesztők szerint a legújabb rendszerfrissítések már képesek felismerni a téveszmékre, mániás viselkedésre vagy önkárosításra utaló mintázatokat, és ezeknél az eseteknél „biztonságosabb” modellre váltanak, új ablakot nyitva a beszélgetéshez.

A BBC-nek nyilatkozó szóvivő elismerte, hogy „a kis százalék is jelentős számú embert jelent”, és hozzátette: a vállalat nyilvánosan vállalja a problémát.

A per, ami új korszakot nyitott

A bejelentést közvetlenül előzte meg egy tragikus eset: egy kaliforniai házaspár pert indított az OpenAI ellen, miután 16 éves fiuk, Adam Raine öngyilkosságot követett el. A szülők szerint a fiú a ChatGPT-vel folytatott beszélgetések során kapott megerősítést negatív gondolataira, még segítséget is a tragikus tett véghezviteléhez.

Ez az első olyan per, amelyben a mesterséges intelligencia-fejlesztőt „gondatlanságból elkövetett emberöléssel” is vádolják.

Robin Feldman, a Kaliforniai Egyetem professzora így fogalmazott: „A chatbotok a valóság illúzióját keltik, és ez rendkívül erős illúzió. A figyelmeztetések önmagukban nem biztos, hogy elérnek valakit, aki pszichés krízisben van.”

Ugyanakkor elismerte: az OpenAI döntése, hogy nyilvánosságra hozta az adatokat, „példát mutathat a technológiai iparágnak”.

🧠 Miről is van szó pontosan?
Chatbot: Olyan számítógépes program, amely természetes nyelven képes beszélgetni a felhasználóval, általában szöveges vagy hangalapú felületen. A modern chatbotok (mint a ChatGPT beszélgetése például) mesterséges intelligenciát és nyelvi modelleket használnak, hogy a válaszaik emberi módon hangozzanak, és alkalmazkodjanak a beszélgetés tartalmához. Céljuk lehet ügyfélszolgálat, információadás, oktatás vagy épp mentális támogatás — de nem helyettesítik a valódi emberi kapcsolatot vagy a szakmai segítséget.

Miért fontos ez szülőként?

A mesterséges intelligencia beszélgetőfelületei a fiatalok számára gyakran barát, tanácsadó és napló egy személyben. Egy kamasz, aki magányosnak érzi magát, könnyen talál érzelmi támaszt egy chatbotban. A probléma ott kezdődik, amikor a digitális figyelem helyettesíti az emberit.

Ha a gyerek arról beszél, hogy a „chat” megérti őt, miközben a család vagy az iskola kevésbé, az a szülő számára figyelmeztető jel. A pszichológusok szerint nem a mesterséges intelligencia jelenléte a veszély, hanem a hiánya annak, amit pótolni próbál: a valódi meghallgatásnak, az emberi kapcsolatnak.

A szülőknek ezért érdemes tudniuk, milyen chatbotokat használ a gyermekük, milyen témákról beszélget velük, és hogy a ChatGPT-hez hasonló rendszerek nem alkalmasak terápiára. Ha bármilyen jele van annak, hogy a beszélgetés túlzottan személyessé válik vagy a gyerek sötétebb témákat hoz fel, ideje szakembert bevonni.

Arról, hogy az MI mennyire nem jó pszichológus itt írtunk bővebben, fontos elolvasnod és ennek tudatában figyelned gyermekedre.