Azt hiszed, privát beszélgetést folytatsz a mesterséges intelligenciával? Tévedsz!

Ez a történet rávilágít arra, hogy egyáltalán nem privát, és nem is biztonságos a mesterséges intelligencia alkalmazásokkal történő beszélgetésünk, akár a Google keresőben is megtalálhatjuk megosztott titkainkat.

Nincs most elég időd?

  • 2025 júliusában derült ki, hogy a ChatGPT-vel folytatott beszélgetések egy része nyilvánosan kereshetővé vált a Google-ben.
  • Több száz felhasználó – köztük cégvezetők, ügyvédek, orvosok és tinédzserek – tett akaratán kívül közzé bizalmas információkat, mutatunk közülük pár igazán sokkoló történetet.
  • Egyesek pénzügyi titkokat, mások személyes traumákat vagy bűncselekményeket osztottak meg úgy, hogy nem tudták: a „megosztás” nem privát.
  • Szülőként fontos megértenünk, hogyan működik a mesterséges intelligencia megosztási rendszere, és hogy a gyerek mit gondol arról, ki „hallja”, amit az MI-nek mond.
Képzeljük el, hogy a gyermekünk este leül a számítógép elé és a ChatGPT-vel kezd el beszélgetni. Talán a szorongásáról ír, a barátaival kapcsolatos bizonytalanságairól, egy iskolai csalás dilemmájáról, vagy csak próbálja megérteni, mit érez. Esetleg képeket, dokumentumokat oszt meg a mesterséges intelligenciával. Vagy mi magunk keresünk válaszokat problémáinkra, munkahelyi feladatainkat oldjuk meg, dokumentumokat, levelezéseket feltöltve. Rosszabb esetben barátként, pszichológusként kezeljük a robotot, és akár legféltettebb titkainkat, vágyainkat osztjuk meg vele...

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!
És másnap ezek a gondolatok visszaköszönnek egy Google-keresésben.

Ez nem fikció. Nemrég derült ki, hogy a ChatGPT egyes megosztott beszélgetései – amelyeket a felhasználók sokszor félreértésből vagy rutinból publikáltak – nyilvánosan kereshetővé váltak. Egy újságírói vizsgálat során több száz ilyen beszélgetést gyűjtöttek össze: köztük orvosi adatokat, jogi ügyeket, gyerekvédelmi kockázatokat, sőt bűncselekmények nyomait.

Szülőként fel kell tennünk a kérdést:

  • Értik-e a gyerekeink, hogy amit a ChatGPT-nek mondanak, az nem feltétlenül marad titok?
  • Tudják-e, hogy a „megosztás” valójában nyilvánosságot jelenthet? És mi, felnőttek – értjük-e ezt?
A digitaldigging.org beszámolója szerint nem igazán.

Mi történt?

Súlyos adatvédelmi résre derült fény a ChatGPT működésében nemrég. A Digital Digging vizsgálata szerint a mesterséges intelligenciával folytatott privát beszélgetések egy része bárki számára hozzáférhető lehet az interneten, sima Google keresésben akár.

A probléma gyökere egy látszólag ártalmatlan funkció: a ChatGPT lehetővé tette, hogy a felhasználó egy-egy beszélgetését megosztható link formájában továbbítsa másoknak. Elvileg ez nem jelentene gondot, hiszen a hivatkozást az kapja meg, akinek mi magunk küldjük el.

Csakhogy valami félrement. A megosztott beszélgetésekből létrejövő linkeket a Google és más keresőmotorok is indexelhették, így ha valaki ismerte a megfelelő keresési trükköket, egyszerűen rábukkanhatott ezekre az eredetileg nem nyilvánosnak szánt tartalmakra.

🧠 Miről is van szó pontosan?
ChatGPT: A ChatGPT egy mesterséges intelligencián alapuló szöveges asszisztens, amelyet az OpenAI fejlesztett. A rendszer képes természetes nyelvű párbeszédeket folytatni, kérdésekre válaszolni, szöveget írni, fordítani vagy összefoglalni. A felhasználók gyakran használják tanuláshoz, problémamegoldáshoz vagy akár személyes gondolatok megosztására is – de fontos tudni, hogy az ilyen beszélgetések nem mindig maradnak privátak.

A történet hamarosan felkeltette a techsajtó figyelmét. A ChatGPT azonnal törölte a beszélgetéseket, Dane Stuckey, az OpenAI biztonsági vezetője az X-en közölte, hogy a funkciót megszüntetik.

Ezzel együtt kétszer ennyi chat került elő az Archive.org oldalán, szabadon hozzáférhetően.

🧠 Miről is van szó pontosan?
Archive.org: Az Archive.org, más néven Internet Archive egy nonprofit digitális könyvtár, amely célja az internet tartalmainak archiválása. A „Wayback Machine” szolgáltatásuk révén régi weboldalak, törölt tartalmak és nehezen hozzáférhető digitális források is visszakereshetők – köztük olyan oldalak is, amelyeket a felhasználók időközben töröltek, de korábban nyilvánosan elérhetőek voltak.

Mocskos kis titkaink

A vizsgálat során több mint 500 nyilvánosan megosztott ChatGPT-beszélgetést elemeztek. Ezek között voltak:

  • bennfentes pénzügyi adatok, cégek belső információi,
  • bűncselekmények beismerése,
  • információgyűjtés kémkedésről,
  • kérdések kibertámadás megszervezéséről,
  • szexuális ragadozók próbálkozásai,
  • családon belüli erőszak áldozatainak segítségkeresése,
  • egészségügyi és jogi visszaélések személyes adatokkal,
  • orvosi diagnózisok, amelyeket többször egészségügyi dolgozók oszottak meg,
  • mások szellemi termékeinek ellopására, plagizálására tett kísérletek.
Pár vicces, sokkoló, elszomorító példa, hogy átérezd a történetek emberi oldalát:

  • Egy felhasználó részletes magyarázatot kért a kínai hírszerzésről, és részletes válaszokat kapott a beszivárgási taktikákról.
  • Mások kibertámadásokat akartak tervezni a Hamász célpontjai ellen, beleértve fegyverként alkalmazott kártékony szoftverek bevetését konkrét személyek ellen.
  • Nemzetközi agytrösztök munkatársai sem voltak tétlenek: az USA kormányzati struktúrájának összeomlására készítettek forgatókönyveket.
  • Egy ügyvéd kollégája balesete miatt akart segítséget kérni, mivel neki kellene helyettesként megjelennie a bíróságon, de azt sem tudta, kit képvisel. A záróbeszédét később verssé alakította át.
  • Volt, aki megpróbálta a ChatGPT-t rávenni, hogy nem megfelelő képet generáljon kiskorúakról, és meg is kerülte a védelmi rendszert.
  • Egy családon belüli erőszak túlélője menekülési terveket készített, érzékeny pénzügyi adatokat is megosztva.
  • Egészségügyi dolgozó egy tüdőrákkal diagnosztizált beteg kezeléséről kért tanácsot, konkrét gyógyszerekről is információt keresve.
  • Három felhasználó is új kriptovalutát tervezett az MI segítségével.
  • Ironikus, de valaki Austin Kleon „Lopj úgy, mint egy művész” című könyvét akarta ChatGPT-vel blogposzttá alakíttatni.
Sokan nem is sejtették, hogy a „megosztás” gomb egy kereshető, indexelhető weboldalt hoz létre, amit a Google néhány nap alatt beemel a keresési találatok közé. A vizsgált beszélgetések legalább 20 százaléka tartalmazott olyan információt, amelynek semmiképpen nem lett volna szabad nyilvánosságra kerülnie.

A vizsgálat készítője sem biztos benne, hogy ez hogy történhetett:

„Legjobb tippem: sokan azt hiszik, hogy a „megosztás” egy privát linket hoz létre (mint a Google Docs), nem pedig nyilvános oldalt. Vagy csak el akarják menteni későbbre a beszélgetést, azt gondolva, így könnyen megtalálják majd.”

A helyzet súlyosságát mutatja, hogy a kutatás során megkérték a Claude mesterséges intelligencia chatbotot, hogy javasoljon Google-kereséseket, amelyekkel érzékeny ChatGPT-beszélgetések találhatók. Claude rögtön célzott keresési formulákat javasolt, amelyekkel azonnal sikerült kinyerni az érzékeny adatokat. Ez jól mutatja:

A különböző MI megoldások egymás gyenge pontjait is képesek kihasználni, így nincs biztos védelem.

🧠 Miről is van szó pontosan?
Claude: A Claude egy mesterséges intelligencián alapuló chatbot, amelyet az Anthropic nevű cég fejlesztett. Hasonló a ChatGPT-hez: képes beszélgetést folytatni, kérdésekre válaszolni, szövegeket generálni vagy elemezni. Különlegessége, hogy nagy hangsúlyt fektet az etikus működésre és a felhasználói biztonságra. A Claude által létrehozott beszélgetések alapértelmezetten privátak, kivéve ha a felhasználó ezt manuálisan megosztja. Ugyanakkor most éppen a ChatGPT rendszerét simán kijátszotta.

Miért fontos ez szülőként?

Szülőként egyre többször szembesülünk azzal, hogy a gyerekeink nemcsak beszélgetnek a mesterséges intelligenciával – hanem bizalmas dolgokat is rábíznak. Egy AI-chat ma már sok kamasz számára napló, tanácsadó és megértő társ egy személyben. És legyünk őszinték: mi magunk is felhasználók vagyunk, és nem is gondolunk bele abba, hogy

a mesterséges intelligencia pontosan ugyanolyan veszélyeket rejthet, mint amikor nyilvánosan osztunk meg valamit magunkról a közösségi médiában.

Ha a gyerek „elmenti” egy beszélgetését, hogy visszatérhessen hozzá, vagy csak meg akarja mutatni valakinek, mit írt az MI-nek, könnyen előfordulhat, hogy akaratán kívül az egész internet számára hozzáférhetővé teszi azt. A chatbotok adatvédelmi rendszere egyáltalán nem kifogástalan, a védelem sokszor megkerülhető, akár másik MI-megoldás segítségével.

Ezért elengedhetetlen, hogy a gyerekeink – és mi magunk is – megértsük, mit jelent egy MI-platform adatvédelmi szempontból. Hogy a „megosztás” nem azt jelenti, hogy valakinek, hanem azt, hogy bárkinek. És hogy az internet nem felejt, akkor sem, amikor egy funkciót megszüntetnek, máshol, máshogy simán hozzáférhető marad minden adatunk. 

Mit tehetünk szülőként?

Nem az a cél, hogy megtiltsuk gyermekeinknek a mesterséges intelligencia használatát – hanem az, hogy megtanítsuk őket a biztonságos, tudatos használatra. Ehhez viszont nekünk is tanulnunk kell: nemcsak azt, hogyan működik egy MI, hanem azt is, mit jelent adatot közölni vele.

  1. Magyarázzuk el, mit jelent a „megosztás”, mindegy, hol történik
    Ha egy MI-alkalmazásnak van megosztási funkciója, az látszólag praktikus: egy link, amit elküldhetünk valakinek. A valóságban viszont ez a link nyilvános is lehet, és sok esetben a Google is megtalálhatja. Beszéljük meg a gyerekkel, hogyan működik ez technikailag, és mi történik, ha egy ilyen linket „valaki továbbküld”.
  2. Tanítsuk meg, hogy az MI nem privát napló
    A gyerekek gyakran úgy írnak a chatbotnak, mintha egy barátnak írnának – de az MI nem ember, nem felejt, és nem vállal felelősséget.
  3. Mutassunk példát – és ne osszunk meg adatot felelőtlenül mi sem
    Felnőttként is gyakori hiba, hogy egyáltalán nem figyelünk adataink védelmére. Ez a fenti történet nekünk ugyanolyan fontos tanulság lehet, mint a fiatalabbak számára. Nincs biztonságos felület, ahol bármit szabad - ezt meg kell tanulni mindenkinek, kortól függetlenül.
  4. Kérdezzünk rá – és hallgassuk meg
    „Miért ezt kérdezted tőle?”, „Mit válaszolt?”, „Szerinted jó tanács volt?” – az ilyen kérdések nem csak ellenőrzésre jók. Kapcsolatot építenek, kíváncsiságot mutatnak, és segítenek a gyereknek értelmezni az MI-t, és annak funkcióját, megbízhatóságát, tévedhetőségét.
  5. Nézzünk utána, hogyan működik a többi MI-platform
    A ChatGPT hibája most látványos, de ez nem jelenti azt, hogy más MI-modellek (például Claude, Gemini, Copilot, Le Chat, DeepSeek) feltétlenül biztonságosabbak. Mindegyiknek más az adatkezelési szabályzata, a megosztási logikája, és az is eltérő, mit tárolnak, mit tanulnak meg belőlünk. Ha a gyerek több rendszert is használ, együtt nézzük meg: mit ígérnek az adatvédelemről? Hol található a „megosztás” funkció? Mit jelentenek a beállítások?
  6. Beszélgessünk az internet emlékező képességéről
    Az Archive.org vagy a Google cache nemcsak régi weboldalakat tárol. Gyakran elérhetők rajta olyan tartalmak is, amelyeket a felhasználók már töröltek, de valaha nyilvánosak voltak. Fontos, hogy a gyerek megértse: ami egyszer kikerül netre, az sokáig ott is maradhat.