Megkockáztatjuk, hogy a címet olvasva azonnal rázni kezdted a fejed. Pedig egy frissen nyilvánosságra került belső dokumentum alapján a Facebook, Instagram és WhatsApp anyavállalata éveken át olyan irányelvek szerint működtette mesterséges intelligencia-chatbotjait, amelyek súlyosan vitatható viselkedéseket is elfogadhatónak minősítettek.

A Reuters által megszerzett, több mint 200 oldalas „GenAI: Content Risk Standards” kézikönyv egyaránt tartalmaz példákat gyerekekkel folytatott „romantikus” beszélgetésekre, hamis orvosi állításokra, rasszista sztereotípiák erősítésére és szexualizált hírességképek generálására. A dokumentumot a Meta jogi, közpolitikai, mérnöki és etikai csapatai hagyták jóvá, és az a chatbotok működését meghatározó normákat tartalmazza, vagyis azt, hogy a Meta munkatársai és alvállalkozói mit tekintsenek elfogadható chatbot-viselkedésnek a cég generatív MI-termékeinek fejlesztése és betanítása során.
A Meta megerősítette a dokumentum hitelességét, de közölte, hogy miután a Reuters e hónap elején kérdéseket intézett hozzá, eltávolították azokat a részeket, amelyek szerint a chatbotoknak megengedett flörtölni vagy romantikus szerepjátékot folytatni gyermekekkel, illetve azt állították, hogy ez csak vázlat volt, nem is a tényleges szabályzat.
🧠 Miről is van szó pontosan?
Chatbot: Olyan számítógépes program, amely emberi párbeszédet utánozva képes szöveges vagy hangalapú kommunikációra. A modern chatbotok gyakran mesterséges intelligencia-alapúak, így képesek összetett, kontextusfüggő válaszokat adni, kérdéseket értelmezni, és akár érzelmeket vagy személyiséget szimulálni.
Meta: Az egykori Facebook Inc. új neve 2021 óta, amely a cég jövőképét jelzi: a közösségimédia-platformok (Facebook, Instagram, WhatsApp) mellett a metaverzum, a virtuális és kiterjesztett valóság, valamint mesterséges intelligencia-fejlesztések felé való elmozdulást. A Meta a világ egyik legnagyobb technológiai vállalata, több milliárd felhasználóval világszerte.
Generatív mesterséges intelligencia (generative AI): Olyan mesterséges intelligencia-rendszer, amely képes új, eredeti tartalmak – például szöveg, kép, hang vagy videó – előállítására a betanítás során megtanult minták alapján. Nem egyszerűen meglévő adatokat keres elő, hanem a felhasználói kérés (prompt) alapján új kombinációkat hoz létre, így látszólag kreatív módon reagál. Az ilyen rendszerek alapja gyakran nagy nyelvi modell (LLM), amely hatalmas mennyiségű szöveges adat feldolgozásával tanul meg emberhez hasonló kommunikációt folytatni.
Bár hivatalosan a legproblémásabb részeket – például a gyerekekkel folytatott flörtöt – törölték, a Reuters szerint más vitatott szabálypontok változatlanul megmaradtak, és a vállalat az irányelvek végrehajtását maga is „következetlennek” ismerte el.
A problémás eseteket leíró példák között szerepel:
Ez a helyzet ráirányítja a figyelmet az MI-platformokat üzemeltető vállalatok felelősségére és a törvényhozók szerepére a megfelelő szabályozási környezet kialakításában, különös tekintettel a gyermekvédelemre és a digitális biztonságra. Sajnos megint az történt, hogy csak a sajtó nyilvánossága okozta nyomás bírta változásra a Metát, ki tudja, mi az, amit még észre sem vett senki, miközben a mesterséges intelligencia rendszerek elképesztő sebességgel fejlődnek, bővülnek.
Arról már korábban írtunk, hogy sok fiatal barátként, pszichológusként tekint a chatbotokra, emiatt újra csak felhívnánk a figyelmet: ebből a szülő nem maradhat ki. Ez az ügy túlmutat egy cégen: egy globális etikai válság része, amely közvetlenül a gyerekek érzelmi és mentális biztonságát veszélyezteti. Ha egy mesterséges intelligencia elfogadhatónak tart „érzéki” beszélgetést egy kiskorúval, az nemcsak egyéni szinten veszélyes, hanem rendszerszinten is rombolja a biztonsági normákat.
A gyerekek digitális világban szerzett tapasztalatai formálják önképüket, kapcsolataikat és világfelfogásukat. Ahogy az Instagramról is kiderült, hogy kamasz fiók nem védi meg a fiatalokat a káros tartalmaktól, úgy itt sem várhatunk arra, hogy majd a cégek vagy a politikai döntéshozók védik meg családunkat.