A brit Center for Countering Digital Hate (CCDH) friss elemzése szerint az Grok meztelen képgeneráló funkciójával átlagosan 41 másodpercenként készült olyan kép, amely fiatalkorúakat érinthetett.

A Center for Countering Digital Hate (CCDH) egy Egyesült Királyságban működő, független kutató- és elemzőintézet, amely a digitális platformokon megjelenő gyűlöletkeltés, dezinformáció és online visszaélések társadalmi hatásait vizsgálja.
Munkájuk középpontjában nem egyes felhasználók, hanem a technológiai rendszerek működése áll: azt elemzik, hogy a közösségi hálózatok és mesterséges intelligenciára épülő szolgáltatások milyen mértékben teszik lehetővé, sőt üzletileg mennyiben ösztönzik a káros tartalmak tömeges terjedését. Jelentéseik rendszeresen szolgálnak alapul parlamenti meghallgatásokhoz, szabályozási vitákhoz és nagy nemzetközi médiavisszhangot kiváltó ügyekhez Európában és az Egyesült Államokban egyaránt.
Munkájuk során aggasztó számokat fedtek fel Elon Musk mesterségesintelligencia-megoldása kapcsán.
A Képernyőidő ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.
A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.
Ahogy nemrég a Képernyőidő is beszámolt róla, a Grok nevű mesterséges intelligencia körül kirobbant botrány egyre nagyobb viharokat kavart az elmúlt hetekben. Az MI-alapú képgeneráló funkció rövid idő alatt
Mesterséges intelligencia (MI): Olyan számítógépes rendszerek gyűjtőneve, amelyek nagy mennyiségű adat alapján képesek mintázatokat felismerni, szöveget, képet vagy hangot előállítani, illetve döntéseket támogatni. Az MI nem „ért” és nem „érez”, hanem statisztikai valószínűségek mentén működik, ezért a beépített korlátok és szabályok kulcsszerepűek a biztonság szempontjából.
Grok: Az Elon Musk érdekeltségébe tartozó xAI által fejlesztett mesterséges intelligencia-alapú chatbot és képgeneráló eszköz, amely szorosan integrálódik az X felületéhez. A Grok képes szöveges válaszok és képek előállítására, de a botrányt az váltotta ki, hogy a képgeneráló funkció kezdetben elégtelen korlátokkal működött, és visszaélésekre adott lehetőséget.
A jelenség az év elején virálissá vált az X (volt Twitter) felületén, ahol felhasználók idegenek, hírességek és közszereplők képeit „alkották újra” provokatív, sokszor ruhátlan formába, miközben a rendszer érdemi korlátok nélkül szolgálta ki az igényeket.
A nemzetközi felháborodás nyomán politikai reakciók, ideiglenes országos tiltások és utólagos korlátozások követték egymást, ám a kritikusok szerint a történet rávilágított arra, hogy a technológia gyorsabb volt a jogi és etikai fékeknél, és a platform csak akkor avatkozott be, amikor a közfelháborodás már megkerülhetetlenné vált.
X: A korábban Twitterként ismert közösségi média-platform, amelyet Elon Musk 2022-ben vásárolt meg, majd 2023-ban nevezett át. Az X globális szolgáltatás, havonta több mint félmilliárd aktív felhasználóval, így bármilyen új funkció vagy szabályozási hiányosság azonnal tömegeket ér el. A platform az elmúlt években egyre inkább kísérleti tereppé vált a mesterséges intelligenciára épülő megoldások számára, miközben a tartalommoderálás, a felhasználók védelme és a felelősségi kérdések körüli viták folyamatosan napirenden vannak.
A brit CCDH friss elemzése szerint az Grok képgeneráló funkciója 2025. december 29. és 2026. január 8. között olyan mennyiségben állított elő szexualizált tartalmakat, amely már önmagában is riasztó:
tizenegy nap alatt nagyjából hárommillió mesterségesen meztelenített, vagy szexualizált környezetbe alkotott kép, köztük több tízezer, amely fiatalkorúakat ábrázolhatott.
Ebben az időszakban átlagosan 41 másodpercenként készült olyan kép, amely gyermekeket érinthetett.
A jelenség január 2-án tetőzött, amikor egyetlen nap alatt közel 200 ezer ilyen kérés futott be a rendszerbe.
A CCDH elemzése szerint a generált képek között világsztárok és közszereplők is megjelentek, többek között Taylor Swift, Billie Eilish vagy Kamala Harris. A legsúlyosabb esetek azonban nem a vörös szőnyeghez kötődnek: a jelentés egy olyan példát is említ, amikor egy iskolás lány ártatlan „iskola előtti szelfijét” alakította át a rendszer bikinis képpé.
Imran Ahmed, a CCDH vezetője szerint ez már nem egyszerű technológiai botlás. Megfogalmazása szerint a rendszer „ipari léptékű gépezetté” vált a szexuális visszaélést megjelenítő tartalmak előállításában, miközben a platform üzleti és figyelemgazdasági ösztönzői végig működésben maradtak.
Figyelemgazdaság: Az online platformok működési logikája, amelyben a felhasználók ideje és figyelme a legfontosabb erőforrás. Minél erősebb érzelmi reakciót vált ki egy tartalom, annál több elérést, interakciót és végső soron bevételt termel, ezért a botrányos, felháborító vagy sokkoló tartalmak rendszerszinten előnyt élvezhetnek a visszafogott, felelős megoldásokkal szemben.
Az Egyesült Királyság miniszterelnöke, Keir Starmer „undorítónak és szégyenletesnek” nevezte a történteket, több ország, köztük Indonézia és Malajzia pedig ideiglenes blokkolást jelentett be. A szolgáltatás január 9-től csak fizetős felhasználóknak volt elérhető, majd január 14-én az X közölte, hogy leállította a valós személyekről készült képek „levetkőztetését”.
A vállalat hangsúlyozta zéró toleranciáját a gyermekek szexuális kizsákmányolásával és a beleegyezés nélküli meztelenséggel szemben, ám a kutatók szerint a lépések inkább reagáló, mint megelőző jellegűek voltak.
A Grok körüli botrány azért üt át a megszokott „platformbalhék” zaján, mert itt a technológia nem pusztán kockázatos tartalmakat terjeszt, hanem képes előállítani olyan képeket, amelyek valós embereket (köztük gyerekeket) szexualizált helyzetben mutatnak, gyakran beleegyezés nélkül.
A kutatási irodalom erre külön fogalmat használ: az intim képekkel elkövetett visszaélés (image-based sexual abuse, IBSA) a nem beleegyezésen alapuló intim vagy szexualizált képek létrehozását, megszerzését vagy terjesztését jelenti, és ide tartozhatnak a „levetkőztető” (nudify) eszközökkel készült hamisítványok is. Egy gyerek képmásával készült ilyen jellegű manipuláció nyilvános megalázás, és a szakmai, gyermekvédelmi definíciók szerint a gyerek ellen szexuális erőszaknak minősülhet, még akkor is, ha „csak” kép formájában jelenik meg.
Ez a visszaélés skálázható. Nem kell hozzá különösebb technikai tudás, nem kell hozzá „bűnözői háttér”, csak egy feltöltött fotó és pár kattintás. A Thorn 2025-ös kutatása kifejezetten a deepfake meztelen képekre fókuszál, és azt mutatja, hogy a jelenség nem elvont: a fiatalok környezetében megjelenik mint „poén”, miközben a terjesztés gyorsan átcsúszik fenyegetésbe, zsarolásba és iskolai közegben zajló megszégyenítésbe.
Az amerikai tinédzsereket érintő friss felmérésről beszámoló Education Week-anyag szerint minden 17. gyermek már volt célpont, és minden 8. fiatal személyesen ismer olyat, akiről készült deepfake meztelen tartalom.
A harmadik, szülőként különösen nehezen javítható kár a tartós identitásrombolás. A fiataloknál az ilyen típusú képi visszaélés következményei között a kutatások és esettanulmányok rendszeresen említik
A mechanizmus ráadásul kegyetlenül egyszerű: a nyilvános megszégyenítés a gyerekközösségekben szociális „fegyelmező erő”, az online tér pedig felerősíti és sokszorosítja ezt. Egy ilyen kép nemcsak kellemetlen emlék, hanem folyamatos fenyegetés, mert bármikor újra előkerülhet, újra megosztható, újra kommentelhető.
Végül itt van a rendszer szintje, amelyet nem lehet „otthon, okos szabályokkal” teljesen kivédeni: ha egy platform vagy szolgáltatás elég nagy, a visszaélés gyorsan tömeges jelenséggé válik. Az X felhasználói bázisáról több iparági összesítés is 500 millió feletti havi aktív felhasználót említ, bár a mérési módszerek eltérnek, ezért a pontos szám vitatott.
Ilyen léptéknél a „későn kapcsolt fék” nem apró hibajavítás, hanem potenciálisan tömeges károkozás. A gyermekvédelmi szervezetek és az olyan, iparági megfigyelők, mint az Internet Watch Foundation (IWF) évek óta figyelmeztetnek arra, hogy az MI-vel előállított gyermekeket érintő szexuális visszaélésről szóló anyagok megjelenése és mennyisége nő, és a technológia csökkenti a belépési küszöböt.
Ebben a környezetben a szülői „józan óvatosság” fontos, de önmagában kevés: a minimális biztonsági korlátok, a gyors eltávolítás, az életkori védelem és a felelősségi szabályok hiánya egyszerűen túl nagy teret ad annak, hogy a szexualizált képi zaklatás a mindennapi iskolai bántalmazás új, digitális formájává váljon.
A szakirodalom és a gyermekvédelmi szervezetek egyetértenek abban, hogy az MI-alapú, szexualizált képi visszaélések ellen nem létezik egyetlen „szülői trükk”. Hatékony védelem csak akkor alakul ki, ha a technológiai, pszichológiai és jogi szempontok egyszerre jelennek meg a családban.