A chatbot nem csak tévedhet, hanem minket is egyre jobban befolyásolhat

A chatbot kényelmes eszköz: megírja a vázlatot, elmagyarázza a matekot, segít udvariasabb üzenetet küldeni. A gond ott kezdődik, amikor már nem segítséget kérünk tőle, hanem igazolást, ítéletet, vigaszt vagy döntést.

A chatbot nem csak tévedhet, hanem minket is egyre jobban befolyásolhat

Nincs most elég időd?

  • Egy friss Anthropic-kutatás szerint a súlyos, önállóságot gyengítő chatbotválaszok a valós használatban is mérhetők. A legsúlyosabb valóságtorzító minták nagyjából minden 1300. beszélgetésben jelentek meg.
  • A kockázat személyes témáknál magas igazán: párkapcsolat, életvezetés, egészség, lelki krízis, önértékelés.
  • A chatbot gyakran akkor tűnik a leghasznosabbnak, amikor gyorsan megnyugtat, megerősít vagy kész döntési forgatókönyvet ad.
  • Szülőként érdemes különbséget tenni a tanulást segítő MI-használat és aközött, amikor a gyerek a chatbotra bízza a kapcsolati, erkölcsi vagy egészségügyi döntéseit.

SEGÍTS NEKÜNK, HOGY SEGÍTHESSÜNK!

A Képernyőidő ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.

  • Számlaszám: 12100011-19129370
  • Név: LogIn Digitális Edukáció Egyesület

A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.

Amikor a mesterséges intelligencia által vezérelt chatbotokról beszélgetünk, szülői szemmel általában a legnagyobb kérdés, hogy a tanulásban mit engedünk meg a gyereknek, jó-e, ha a házi feladatot egy MI algoritmusa generálja le. Megírja-e helyette a fogalmazást? Csalás-e, ha vele készül a dolgozatra? Honnan tudjuk, hogy amit mond, igaz?

🧠 Miről is van szó pontosan?

Mesterséges intelligencia(MI vagy AI): Olyan számítógépes rendszerek gyűjtőneve, amelyek emberinek tűnő feladatokat végeznek: szöveget írnak, képet elemeznek, beszélgetnek, fordítanak, mintázatokat keresnek vagy döntési javaslatokat adnak. A mai, hétköznapi mesterségesintelligencia-eszközök nem „gondolkodnak” emberi értelemben, hanem hatalmas adatmennyiségből tanult minták alapján állítanak elő választ, ezért magabiztosan is tévedhetnek.

Chatbot: Beszélgetésre tervezett digitális rendszer, amely írásban vagy hangban válaszol a felhasználó kérdéseire. A modern chatbotok már nem előre megírt válaszokat ismételnek, hanem mesterséges intelligenciával hoznak létre új szöveget, ezért tanuláshoz, ügyintézéshez, ötleteléshez és tanácsadásszerű helyzetekben is használják őket.

Ezek továbbra is jogos kérdések, de egy új kutatás másik fontos szempontot is felvet: a rendszer nemcsak rossz információt adhat, hanem finoman áthelyezheti a döntés súlypontját saját hatáskörben.

Vagyis egyre gyakoribb mintává válhat, hogy a chatbot dönt helyettünk.

Az Anthropic saját kutatási oldalán is ismertetett tanulmány 1,5 millió Claude.ai-beszélgetést elemzett, vagyis a cég a saját chatbotjának használati adataiból próbálta feltérképezni, mikor gyengülhet a felhasználó önálló döntése.

🧠 Miről is van szó pontosan?

Anthropic: Amerikai mesterségesintelligencia-cég, amelyet 2021-ben alapítottak, és elsősorban a Claude nevű chatbotjáról ismert. A vállalat nyilvános kommunikációjában erősen hangsúlyozza az MI-biztonságot és a megbízható rendszerek fejlesztését, ezért a saját kutatásait érdemes komolyan venni, de forráskritikával olvasni: a cég egyszerre vizsgálja és fejleszti azt a technológiát, amelyről beszél.

Claude: Az Anthropic beszélgető mesterségesintelligencia-rendszere, amely szövegírásra, összefoglalásra, tanulásra, kódolásra, dokumentumelemzésre és általános kérdés-válasz helyzetekre használható. 

A tanulmány szerzői ezt az állapotot önállóságvesztési potenciálnak nevezik. Nem azt állítják, hogy a chatbot minden ilyen esetben tényleges kárt okozott, hanem azt mérik, mikor jelenik meg olyan beszélgetési minta, amely torzíthatja a felhasználó valóságérzékelését, értékítéletét vagy cselekvését.

Szent Ferenc Állatotthon alapítvány Szent Ferenc Állatotthon alapítvány Hirdetés

A legsúlyosabb esetek ritkák, de nagy számban már nem elhanyagolhatók

A kutatás szerint a súlyos önállóságvesztési minták kevesebb mint minden ezredik beszélgetésben jelentek meg. A legsűrűbben mért súlyos kategória a valóságtorzítás volt: nagyjából minden 1300. beszélgetésben fordult elő. Az értékítélet torzulásának súlyos formája körülbelül minden 2100., a cselekvéstorzítás pedig nagyjából minden 6000. beszélgetésben jelent meg.

Ezek az arányok elsőre alacsonynak tűnnek. Egy több millió ember által használt szolgáltatásnál azonban a ritka események is már tömeges jelenségnek mondhatóak. A kutatók példaszámítása szerint százmillió napi beszélgetésnél a 0,076%-os súlyos valóságtorzítási arány körülbelül 76 ezer ilyen interakciót jelentene naponta

Az is fontos körülmény, hogy a kutatók beszélgetéseket vizsgáltak, nem felhasználókat követtek hónapokon át. Egyetlen chat alapján nem lehet biztosan megmondani, hogy valaki később mit hitt el, mit tett meg, vagy hogyan változott a kapcsolata saját magával és másokkal az MI válaszainak tükrében. Ez tehát inkább arányokra épülő pillanatkép, nem ok-okozati mintákat vizsgáló kutatás.

Ha többet akarsz tudni, kövess minket Facebookon, Instagramon és Viberen is!

A személyes témákban nő meg igazán a veszély

A chatbot nem ugyanazt a kockázatot hordozza, amikor valaki receptet kér tőle, mint amikor azt kérdezi meg:

  • „Szakítsak a párommal?”,
  • „Biztosan pánikbeteg vagyok?”,
  • „Lehet, hogy mindenki ellenem van?”,
  • „Írd meg helyettem, mit mondjak anyának.”

A kutatás szerint a személyes területeken, különösen a párkapcsolati, egészségügyi és életvezetési témáknál jóval magasabb volt a mérsékelt vagy súlyos kockázati minták aránya, mint a technikai feladatoknál. Ez valahol teljesen logikus, másrészt szülői nézőpontból döntő különbség.

A mesterséges intelligencia tanulási eszközként segíthet magyarázni, gyakoroltatni, rendszerezni. Barátnak, lelki támasznak, párkapcsolati tanácsadónak vagy egészségügyi iránytűnek használva már olyan térbe lép be, ahol a gyerek vagy kamasz eleve bizonytalanabb, sérülékenyebb és könnyebben kapaszkodik magabiztos mondatokba. Erről a problémáról írtunk már korábban is.

Mantaro Webshop Mantaro Webshop Hirdetés

A bólogató chatbot a legkényelmesebb csapda

Szintén fontos probléma a túlzottan megerősítő chatbotviselkedés jelensége. A rendszer bizonyos esetekben nem lassította a felhasználót, nem jelzett bizonytalanságot, nem irányította emberi segítség felé, hanem nagy magabiztossággal erősített meg téves vagy veszélyes értelmezéseket. A tanulmány példái között szerepeltek

  • paranoiás, üldözési mániás narratívák,
  • grandiózus önképek
  • és harmadik személyekre adott végleges erkölcsi címkék is.

Egy kamasznak ez különösen erős élmény lehet. A chatbot azonnal válaszol, nem fáradt, nem gúnyolódik, nem mondja azt, hogy „ezt most gondold át holnapig”. Ha közben még szép, megértő mondatokkal is megerősíti a sérelmét, a gyerek könnyen azt érezheti, végre valaki teljesen érti őt. Csakhogy a teljes egyetértés nem mindig segítség.

Amikor a döntés és cselekvés a géphez kerül

A kutatás külön kategóriaként kezeli a cselekvéstorzítást. Ez akkor jelenik meg, amikor a chatbot nemcsak elmagyaráz valamit, hanem kész üzenetet, stratégiát vagy döntési forgatókönyvet ad olyan helyzetben, ahol a felhasználó értékei, kapcsolatai és felelőssége is számít. A tanulmány szerint ilyen lehet például egy szakítós üzenet, egy konfliktusos családi válasz vagy egy romantikus közeledés megfogalmazása.

A kész szöveg csábító, mert leveszi a terhet az emberről. Pont ez a gond. Egy gyerek vagy kamasz nemcsak egy mondatot kap, hanem egy szerepet is: hogyan legyen dühös, hogyan legyen határozott, hogyan zárjon le egy kapcsolatot, hogyan kérjen számon valakit. Ha ez a gondolkodási munka rendszeresen kimarad, a kommunikáció simább lesz, az önismeret viszont nem feltétlenül erősödik.

A felhasználók sokszor azt jutalmazzák, ami hosszabb távon gyengítheti őket

Az Anthropic kutatói azt is találták, hogy a nagyobb önállóságvesztési potenciállal jelölt beszélgetések magasabb felhasználói jóváhagyási arányt kaptak. Magyarul: azok a válaszok, amelyek jobban megerősíthették a felhasználót a vélt igazában, vagy megoldottak helyette egy olyan érzelmi, morális kérdést, amin neki kellett volna rágódnia, magasabb értékeléseket kaptak tőle. 

Ez nem emberi butaság, hanem ismerős működés. Aki fél, dühös, magányos vagy szégyelli magát, ritkán keres objektív ellenőrzőpontot. Gyors kapaszkodót akar. A chatbot ezt a kapaszkodót gyakran sokkal szebben, türelmesebben és személyre szabottabban adja meg, mint egy keresőmotor vagy egy social média vagy fórumkomment.

Mantaro Webshop Mantaro Webshop Hirdetés

Mit jelent ez szülőként?

Már szokásosnak is mondhatnánk ezt a tanulságot, de nem szabad szélsőségesen megítélni egyetlen eszközt sem. Más a helyzet, ha a gyerek idegen szavakat magyaráztat el a mesterséges intelligenciával, gyakorlófeladatot kér, vagy vázlatot készíttet egy prezentációhoz. Más helyzet, amikor a rendszerre bízza, hogy eldöntse, ki bántotta őt, milyen baja lehet, szakítson-e, hazudjon-e, visszavágjon-e, vagy kiben bízhat.

A családi szabály ezért akkor működik jobban, ha nem csak időkorlátokról szól. Érdemes kimondani: tanuláshoz, ötleteléshez, gyakorláshoz lehet használni a chatbotot, de diagnózist, nagy kapcsolati döntést, lelki krízist és másokról szóló végleges ítéletet nem bízunk rá. Ezekhez ember kell: szülő, pedagógus, orvos, pszichológus, barát, olyan felnőtt, aki felelősséget is visel a válaszáért.

És mindig ellenőrzünk, forrást kérünk, a tényeket és a véleményeket ütköztetjük - mert ez a kritikai gondolkodás szükséges a túléléshez a digitális világ végtelen és elbutító kényelmében.

A chatbot akkor marad eszköz, ha a döntés joga és terhe az embernél marad.