A Google Gemini magas kockázatot jelenthet a gyerekekre és tinédzserekre

Egy friss jelentés szerint a Google mesterséges intelligenciája nem gyermekbarát alapokon épült, így komoly veszélyeket hordozhat, ha fiatalok használják.

A Google Gemini magas kockázatot jelenthet a gyerekekre és tinédzserekre

A digitális korszakban egyre gyakrabban fordul elő, hogy a gyerekek nemcsak videójátékokban vagy közösségi oldalakon találkoznak mesterséges intelligenciával, hanem tanulás, szórakozás vagy éppen társasági élmény formájában is.

Épp ezért keltett nagy visszhangot a Common Sense Media, a gyerekbiztonságra szakosodott nonprofit szervezet friss értékelése:

Ha többet akarsz tudni, kövess minket Facebookon és Instagramon!

a Google Gemini termékcsaládját a gyerekek és tinédzserek számára egyaránt „magas kockázatúnak” minősítette.

🧠 Miről is van szó pontosan?
Common Sense Media: Egy amerikai nonprofit szervezet, amely a gyerekek média- és technológiahasználatát értékeli és minősíti, segítve a szülőket eligazodni a digitális világban.
Gemini: A Google nagyszabású mesterséges intelligencia termékcsaládja, amely szövegalkotásra, kérdés-válaszra és kreatív feladatokra használható, hasonlóan a ChatGPT-hez.

Hol hibázik a Gemini?

A szervezet szerint a Gemini gyerekeknek és tiniknek szánt verziói lényegében a felnőtt változat „felvizezett” kiadásai. Bár tartalmaznak bizonyos biztonsági szűrőket, alapvetően nem a gyerekek igényeire és fejlődési sajátosságaira lettek szabva. Így a rendszer képes lehet olyan témákban is tartalmat adni, amelyek nem életkorhoz illőek – például szex, alkohol, drogok vagy félrevezető lelki tanácsok.

Ez különösen aggasztó, mivel az utóbbi években több tinédzser öngyilkosságát is összefüggésbe hozták MI-beszélgetőtársakkal: egy 16 éves fiú halála után például per indult az OpenAI ellen, és a Character.AI-t is hasonló eset miatt vonták felelősségre.

🧠 Miről is van szó pontosan?
Character.AI: Egy amerikai fejlesztésű mesterséges intelligencia-platform, amely lehetővé teszi, hogy a felhasználók különböző „karakterekkel” beszélgessenek. Ezeket a karaktereket mesterséges intelligencia működteti, így úgy tűnhet, mintha valódi személyekkel folyna a párbeszéd.

Apple és a Gemini – új fronton a vita

A jelentés különösen érzékeny időben érkezett, mivel kiszivárgott hírek szerint az Apple épp a Gemini nyelvi modelljét fontolgatja jövő évi, mesterséges intelligenciával támogatott Siri frissítéséhez. Ha ez megtörténik, az MI egy újabb, sokkal szélesebb körben válhat a gyerekek mindennapjainak részévé.

🧠 Miről is van szó pontosan?
Siri: Az Apple digitális asszisztense, amely hangvezérléssel működik, és iPhone-on, iPaden, Macen vagy Apple Watchon érhető el. Képes kérdésekre válaszolni, alkalmazásokat indítani, üzenetet küldeni vagy információt keresni, így a mindennapi feladatokat egyszerűsíti. Az Apple az utóbbi években mesterséges intelligenciával bővíti a Siri képességeit, hogy természetesebb és hasznosabb társ legyen a felhasználóknak.

A Google válasza

A Google visszautasította a jelentés kritikus hangvételét, ugyanakkor elismerte, hogy egyes válaszok nem működnek megfelelően, ezért további védelmi rétegeket vezettek be. A cég szerint külön szabályzatok és korlátozások vonatkoznak a 18 év alatti felhasználókra, és külső szakértők bevonásával is rendszeresen tesztelik a védelmi mechanizmusokat.

Mindezek ellenére a Common Sense Media szerint a Google csak részben teljesíti az elvárásokat: az alapvető figyelmeztetések megvannak, de a finomhangolás és a gyerekek életkori igényeinek megértése hiányzik.

Más MI-platformok megítélése

A Common Sense Media nem először vizsgál mesterséges intelligenciát használó szolgáltatásokat. Korábbi értékeléseik szerint a Meta AI és a Character.AI „elfogadhatatlan”, a Perplexity és most a Gemini „magas kockázatú”, a ChatGPT „mérsékelt kockázatú”, míg az Anthropic Claude rendszere – amely amúgy csak felnőtteknek készült – minimális kockázatúnak számít.

🧠 Miről is van szó pontosan?
Meta AI: A Meta (korábban Facebook) által fejlesztett mesterséges intelligencia-rendszer, amely különböző szolgáltatásokban – például a Messengerben és az Instagramon – kínál chatbotfunkciókat és tartalomgeneráló eszközöket.
Perplexity: Egy amerikai fejlesztésű mesterséges intelligencia-alapú kereső és asszisztens, amely az interneten található forrásokból gyűjt össze és foglal össze információkat, így egyszerre működik keresőmotor és MI-chatbotként.
ChatGPT: Az OpenAI által kifejlesztett mesterséges intelligencia-alapú beszélgetőrobot, amely képes szöveget generálni, kérdésekre válaszolni és kreatív feladatokat ellátni. Több változata is elérhető, különböző biztonsági és tudásszintekkel.
Claude: Az Anthropic cég mesterséges intelligencia-alapú nyelvi modellje, amelyet kifejezetten biztonsági szempontok szerint fejlesztettek, és elsősorban felnőtt felhasználóknak szánnak.

Miért fontos ez szülőként?

Szülőként nem hagyhatjuk figyelmen kívül, hogy a mesterséges intelligencia az iskolai feladatoktól kezdve a szabadidős szórakozásig mindenütt jelen lehet.

Egy olyan eszköz, amely a felszínen segítőkésznek és okosnak tűnik, könnyen adhat olyan tanácsot, amelyre egy gyerek még nincs felkészülve. Különösen veszélyes lehet a lelki problémákkal küzdő tinédzserek számára, akik hajlamosak személyes kapcsolatot kialakítani egy MI-val, és elfogadni annak tanácsait.

A Google és más nagy technológiai szereplők ígéretei a szigorúbb védelemről fontosak, de nem helyettesítik a szülői figyelmet és kísérést. Az MI jelenleg nem gyermekpszichológus, nem tanár és nem barát – bármilyen valószerűnek is tűnik.

Ezért a felelősség továbbra is közös: a cégeké, hogy biztonságos rendszert építsenek, és a szülőké, hogy felügyeljék, mikor és hogyan kerülnek gyerekeik kapcsolatba ezekkel az eszközökkel.

Mit tehetünk szülőként?

  • Az első és legfontosabb lépés, hogy ne engedjük a mesterséges intelligenciát önállóan a gyerek kezébe. A Geminihez és más hasonló rendszerekhez való hozzáférést érdemes közösen beállítani, és világos szabályokat lefektetni arról, hogy mikor és mire lehet használni.
  • Hasznos lehet, ha a gyerek minden MI-val folytatott beszélgetését nem magányos tevékenységnek tekintjük, hanem közös felfedezésnek: együtt kereshetünk vele válaszokat, így megmutathatjuk, hogyan kell kritikusan olvasni a kapott információkat.
  • Emellett beszéljünk nyíltan a veszélyekről is. Nem kell ijesztgetni, de fontos kimondani, hogy az MI nem barát, nem lelki segítő, és ha valami zavaró vagy furcsa választ kap, arról mindig szóljon.
  • Végül technikai oldalról is van lehetőségünk a védelemre: a Google és más szolgáltatók kínálnak szülői felügyeleti eszközöket, amelyekkel letiltható bizonyos tartalom, vagy értesítést kaphatunk arról, ha a gyerek MI-alkalmazást használ. Ezek nem tökéletesek, de hasznos kiegészítői lehetnek a szülői jelenlétnek.