Lehet persze legyinteni arra, ha egy MI-szolgáltatás képes bárkit levetkőztetni, de hárommillió ilyen kép készült tizenegy nap alatt

A brit Center for Countering Digital Hate (CCDH) friss elemzése szerint az Grok meztelen képgeneráló funkciójával átlagosan 41 másodpercenként készült olyan kép, amely fiatalkorúakat érinthetett.

Lehet persze legyinteni arra, ha egy MI-szolgáltatás képes bárkit levetkőztetni, de hárommillió ilyen kép készült tizenegy nap alatt

Nincs most elég időd? 

  • A Grok képgeneráló funkciója 2025 végén és 2026 elején tizenegy nap alatt hozzávetőleg hárommillió szexualizált képet generált.
  • A Center for Countering Digital Hate becslése szerint ezek közül több ezer gyermekeket ábrázolhatott.
  • A rendszer működése lehetővé tette, hogy felhasználók valódi emberekről feltöltött fotókat szexualizált tartalommá alakítsanak, gyakran beleegyezés nélkül.
  • A jelenség virálissá vált a közösségi médiában, egyetlen napon közel kétszázezer képkérés érkezett a szolgáltatáshoz. Csak a nagy botrány után lépett a Grok és tiltotta le a funkciót. Mondhatni, ez már késő volt.
  • Gyermekvédelmi és pszichológiai kutatások szerint a nem beleegyezésen alapuló képi manipuláció a szexuális zaklatás és a nyilvános megszégyenítés egyik formája.
  • Az ilyen visszaélések a fiataloknál szégyenérzetet, szorongást, iskolai elszigetelődést és tartós bizalomvesztést okozhatnak.
  •  A figyelemgazdaság működése miatt a botrányt keltő, sokkoló tartalmak gyorsabban terjednek és üzletileg is jutalmazottá válnak.
  • Adunk pár fontos szülői tippet, hogy mire érdemes figyelned.

A Center for Countering Digital Hate (CCDH) egy Egyesült Királyságban működő, független kutató- és elemzőintézet, amely a digitális platformokon megjelenő gyűlöletkeltés, dezinformáció és online visszaélések társadalmi hatásait vizsgálja.

Munkájuk középpontjában nem egyes felhasználók, hanem a technológiai rendszerek működése áll: azt elemzik, hogy a közösségi hálózatok és mesterséges intelligenciára épülő szolgáltatások milyen mértékben teszik lehetővé, sőt üzletileg mennyiben ösztönzik a káros tartalmak tömeges terjedését. Jelentéseik rendszeresen szolgálnak alapul parlamenti meghallgatásokhoz, szabályozási vitákhoz és nagy nemzetközi médiavisszhangot kiváltó ügyekhez Európában és az Egyesült Államokban egyaránt.

Munkájuk során aggasztó számokat fedtek fel Elon Musk mesterségesintelligencia-megoldása kapcsán.

SEGÍTS NEKÜNK, HOGY SEGÍTHESSÜNK!

A Képernyőidő ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.

  • Számlaszám: 12100011-19129370
  • Név: LogIn Digitális Edukáció Egyesület

A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.

Miről van szó?

Ahogy nemrég a Képernyőidő is beszámolt róla, a Grok nevű mesterséges intelligencia körül kirobbant botrány egyre nagyobb viharokat kavart az elmúlt hetekben. Az MI-alapú képgeneráló funkció rövid idő alatt

  • tömegesen tette lehetővé valódi emberekről készült fotók szexualizált átalakítását,
  • gyakran beleegyezés nélkül,
  • és nem egyszer kiskorúakat érintő módon.

🧠 Miről is van szó pontosan?

Mesterséges intelligencia (MI): Olyan számítógépes rendszerek gyűjtőneve, amelyek nagy mennyiségű adat alapján képesek mintázatokat felismerni, szöveget, képet vagy hangot előállítani, illetve döntéseket támogatni. Az MI nem „ért” és nem „érez”, hanem statisztikai valószínűségek mentén működik, ezért a beépített korlátok és szabályok kulcsszerepűek a biztonság szempontjából.

Grok: Az Elon Musk érdekeltségébe tartozó xAI által fejlesztett mesterséges intelligencia-alapú chatbot és képgeneráló eszköz, amely szorosan integrálódik az X felületéhez. A Grok képes szöveges válaszok és képek előállítására, de a botrányt az váltotta ki, hogy a képgeneráló funkció kezdetben elégtelen korlátokkal működött, és visszaélésekre adott lehetőséget.

A jelenség az év elején virálissá vált az X (volt Twitter) felületén, ahol felhasználók idegenek, hírességek és közszereplők képeit „alkották újra” provokatív, sokszor ruhátlan formába, miközben a rendszer érdemi korlátok nélkül szolgálta ki az igényeket.

A nemzetközi felháborodás nyomán politikai reakciók, ideiglenes országos tiltások és utólagos korlátozások követték egymást, ám a kritikusok szerint a történet rávilágított arra, hogy a technológia gyorsabb volt a jogi és etikai fékeknél, és a platform csak akkor avatkozott be, amikor a közfelháborodás már megkerülhetetlenné vált.

🧠 Miről is van szó pontosan?

X: A korábban Twitterként ismert közösségi média-platform, amelyet Elon Musk 2022-ben vásárolt meg, majd 2023-ban nevezett át. Az X globális szolgáltatás, havonta több mint félmilliárd aktív felhasználóval, így bármilyen új funkció vagy szabályozási hiányosság azonnal tömegeket ér el. A platform az elmúlt években egyre inkább kísérleti tereppé vált a mesterséges intelligenciára épülő megoldások számára, miközben a tartalommoderálás, a felhasználók védelme és a felelősségi kérdések körüli viták folyamatosan napirenden vannak.

Igény van rá

A brit CCDH friss elemzése szerint az Grok képgeneráló funkciója 2025. december 29. és 2026. január 8. között olyan mennyiségben állított elő szexualizált tartalmakat, amely már önmagában is riasztó:

tizenegy nap alatt nagyjából hárommillió mesterségesen meztelenített, vagy szexualizált környezetbe alkotott kép, köztük több tízezer, amely fiatalkorúakat ábrázolhatott.

Ebben az időszakban átlagosan 41 másodpercenként készült olyan kép, amely gyermekeket érinthetett.

A jelenség január 2-án tetőzött, amikor egyetlen nap alatt közel 200 ezer ilyen kérés futott be a rendszerbe.

A CCDH elemzése szerint a generált képek között világsztárok és közszereplők is megjelentek, többek között Taylor Swift, Billie Eilish vagy Kamala Harris. A legsúlyosabb esetek azonban nem a vörös szőnyeghez kötődnek: a jelentés egy olyan példát is említ, amikor egy iskolás lány ártatlan „iskola előtti szelfijét” alakította át a rendszer bikinis képpé.

Imran Ahmed, a CCDH vezetője szerint ez már nem egyszerű technológiai botlás. Megfogalmazása szerint a rendszer „ipari léptékű gépezetté” vált a szexuális visszaélést megjelenítő tartalmak előállításában, miközben a platform üzleti és figyelemgazdasági ösztönzői végig működésben maradtak.

🧠 Miről is van szó pontosan?

Figyelemgazdaság: Az online platformok működési logikája, amelyben a felhasználók ideje és figyelme a legfontosabb erőforrás. Minél erősebb érzelmi reakciót vált ki egy tartalom, annál több elérést, interakciót és végső soron bevételt termel, ezért a botrányos, felháborító vagy sokkoló tartalmak rendszerszinten előnyt élvezhetnek a visszafogott, felelős megoldásokkal szemben.

A botrány gyors volt

Az Egyesült Királyság miniszterelnöke, Keir Starmer „undorítónak és szégyenletesnek” nevezte a történteket, több ország, köztük Indonézia és Malajzia pedig ideiglenes blokkolást jelentett be. A szolgáltatás január 9-től csak fizetős felhasználóknak volt elérhető, majd január 14-én az X közölte, hogy leállította a valós személyekről készült képek „levetkőztetését”.

A vállalat hangsúlyozta zéró toleranciáját a gyermekek szexuális kizsákmányolásával és a beleegyezés nélküli meztelenséggel szemben, ám a kutatók szerint a lépések inkább reagáló, mint megelőző jellegűek voltak.

Miért fontos szülőként kiemelten figyelned?

A Grok körüli botrány azért üt át a megszokott „platformbalhék” zaján, mert itt a technológia nem pusztán kockázatos tartalmakat terjeszt, hanem képes előállítani olyan képeket, amelyek valós embereket (köztük gyerekeket) szexualizált helyzetben mutatnak, gyakran beleegyezés nélkül.

A kutatási irodalom erre külön fogalmat használ: az intim képekkel elkövetett visszaélés (image-based sexual abuse, IBSA) a nem beleegyezésen alapuló intim vagy szexualizált képek létrehozását, megszerzését vagy terjesztését jelenti, és ide tartozhatnak a „levetkőztető” (nudify) eszközökkel készült hamisítványok is. Egy gyerek képmásával készült ilyen jellegű manipuláció nyilvános megalázás, és a szakmai, gyermekvédelmi definíciók szerint a gyerek ellen szexuális erőszaknak minősülhet, még akkor is, ha „csak” kép formájában jelenik meg.

Ez a visszaélés skálázható. Nem kell hozzá különösebb technikai tudás, nem kell hozzá „bűnözői háttér”, csak egy feltöltött fotó és pár kattintás. A Thorn 2025-ös kutatása kifejezetten a deepfake meztelen képekre fókuszál, és azt mutatja, hogy a jelenség nem elvont: a fiatalok környezetében megjelenik mint „poén”, miközben a terjesztés gyorsan átcsúszik fenyegetésbe, zsarolásba és iskolai közegben zajló megszégyenítésbe.

Az amerikai tinédzsereket érintő friss felmérésről beszámoló Education Week-anyag szerint minden 17. gyermek már volt célpont, és minden 8. fiatal személyesen ismer olyat, akiről készült deepfake meztelen tartalom. 

A harmadik, szülőként különösen nehezen javítható kár a tartós identitásrombolás. A fiataloknál az ilyen típusú képi visszaélés következményei között a kutatások és esettanulmányok rendszeresen említik

  • a szégyent,
  • a szorongást,
  • az iskolai elkerülést,
  • a bizalomvesztést,
  • valamint azt, hogy az áldozatok sokszor nem mernek segítséget kérni, mert félnek a büntetéstől vagy attól, hogy „úgyis őket hibáztatják”.

A mechanizmus ráadásul kegyetlenül egyszerű: a nyilvános megszégyenítés a gyerekközösségekben szociális „fegyelmező erő”, az online tér pedig felerősíti és sokszorosítja ezt. Egy ilyen kép nemcsak kellemetlen emlék, hanem folyamatos fenyegetés, mert bármikor újra előkerülhet, újra megosztható, újra kommentelhető.

Végül itt van a rendszer szintje, amelyet nem lehet „otthon, okos szabályokkal” teljesen kivédeni: ha egy platform vagy szolgáltatás elég nagy, a visszaélés gyorsan tömeges jelenséggé válik. Az X felhasználói bázisáról több iparági összesítés is 500 millió feletti havi aktív felhasználót említ, bár a mérési módszerek eltérnek, ezért a pontos szám vitatott.

Ilyen léptéknél a „későn kapcsolt fék” nem apró hibajavítás, hanem potenciálisan tömeges károkozás. A gyermekvédelmi szervezetek és az olyan, iparági megfigyelők, mint az Internet Watch Foundation (IWF) évek óta figyelmeztetnek arra, hogy az MI-vel előállított gyermekeket érintő szexuális visszaélésről szóló anyagok megjelenése és mennyisége nő, és a technológia csökkenti a belépési küszöböt.

Ebben a környezetben a szülői „józan óvatosság” fontos, de önmagában kevés: a minimális biztonsági korlátok, a gyors eltávolítás, az életkori védelem és a felelősségi szabályok hiánya egyszerűen túl nagy teret ad annak, hogy a szexualizált képi zaklatás a mindennapi iskolai bántalmazás új, digitális formájává váljon.

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!

Mit tehetünk szülőként?

A szakirodalom és a gyermekvédelmi szervezetek egyetértenek abban, hogy az MI-alapú, szexualizált képi visszaélések ellen nem létezik egyetlen „szülői trükk”. Hatékony védelem csak akkor alakul ki, ha a technológiai, pszichológiai és jogi szempontok egyszerre jelennek meg a családban.

  1. A hallgatás megtörése fontosabb, mint a tiltás
    A UNICEF és a Thorn kutatásai szerint a digitális szexuális zaklatás áldozatai azért nem kérnek segítséget, mert attól félnek, hogy őket hibáztatják, vagy elveszik tőlük az eszközeiket. A szakértők ezért azt javasolják, hogy a családi szabályrendszer előre rögzítse: baj esetén nincs büntetés, csak segítség. Ez bizonyítottan növeli a jelzés esélyét, és csökkenti a pszichés károkat.
  2. Ne csak a megosztást, a felhasználást is magyarázzuk
    A legtöbb szülő a fotófeltöltésre fókuszál, miközben a szakmai ajánlások szerint legalább ilyen fontos annak megértése, mi történhet egy képpel később. Gyermekvédelmi iránymutatások hangsúlyozzák: a gyerekeknek tudniuk kell, hogy egy ártatlannak tűnő fotó más kontextusba helyezve, manipulálva is felhasználható, és ez nem az ő felelősségük, hanem visszaélés.
  3. A beleegyezés fogalma nem „felnőtt téma”
    A beleegyezés fontosságáról, a privát szféránk védelméről való korai, életkornak megfelelő beszélgetések csökkentik annak esélyét, hogy a gyerek normalizálja a szexuális zaklatást. Ide tartozik az is, hogy másról sem készítünk és osztunk meg manipulált vagy megalázó képet, még „poénból” sem. A normák kialakulása közösségi folyamat, amelyben a család alapmintát ad.
  4. Legyen előre lefektetett krízisterv
    A Internet Watch Foundation ajánlása szerint a szülőknek érdemes előre végiggondolniuk, mi történik, ha egy gyerek képmásával visszaélnek:
    – kit értesítünk az iskolában,
    – hogyan történik a platformon a bejelentés,
    – mikor és milyen formában vonunk be hatóságot.
    Ez nem pánikkeltés, hanem kárminimalizálás, amely krízishelyzetben időt és lelki terhet spórol. Ezen az oldalon részletes leírást találsz arról, mikor, mit és milyen felületen érdemes bejelenteni visszaélés esetén.
  5. Nem a te hibád, a rendszer rossz, és küzdeni kell ellene
    A szakértők egybehangzóan figyelmeztetnek: az MI-alapú képi visszaélések nem nevelési hibák következményei, hanem olyan technológiai környezetben jelennek meg, ahol az ösztönzők a figyelemre és a terjedésre épülnek. Szülőként ezért fontos kimondani: a felelősség nem a gyereké, és nem is kizárólag a családé. A biztonság minimumfeltételeit a platformoknak és a szabályozóknak kell megteremteniük, addig is minden eszközzel és a hatóság bevonásával küzdeni az ellen, hogy az ilyen esetek ne maradjanak megtorlás nélkül.