Bár a tendencia javul, a keresések száma és az emberi felszínesség akkora probléma, ami percenként több százezer hibás választ eredményez. Képzeld el ennek a következményeit.

A már napi szinten használt, keresősáv mellett is megjelenő Google AI Mode nem úgy működik, mint a hagyományos kereső, ahol kapunk egy találati listát, aztán magunk rakjuk össze belőle a választ.
Google AI Mode: A Google 1998-ban alapított amerikai technológiai vállalat a világ legnagyobb keresőjét működteti, már a keresés mellett levelezést, térképet, videóplatformot, felhőszolgáltatásokat és mesterségesintelligencia-termékeket is fejleszt. Keresőjének új üzemmódja 2025. március 5-én indult el kísérleti formában, amely mesterséges intelligencia segítségével ad kész válaszokat keresési eredmények helyett. Több mint 1,5 milliárd ember is aktívan használhatja, a cég nem közölt erről nyilvános statisztikát.
Ezzel olyan kérdésekre is egy menetben tud reagálni, amelyekhez korábban több egymás utáni keresésre és külön forrásolvasásra lett volna szükség.
Csakhogy ezzel a keresés logikája is megváltozik.
A felhasználó nem elsősorban forrásokat lát maga előtt, hanem egy készre szerkesztett válaszértelmezést. A Google szerint ebben a folyamatban a Gemini modelljei és a kereső saját rendszerei dolgoznak együtt, vagyis az AI Mode nemcsak keres, hanem válogat, összekapcsol, összefoglal és megfogalmaz is. Emiatt sokkal nagyobb a tétje annak, ha ebbe a folyamatba pontatlanság, rossz következtetés vagy gyengén alátámasztott állítás csúszik. Márpedig csúszik.
Gemini: A Google mesterségesintelligencia-rendszereinek és csevegőalkalmazásának neve, amely szöveges, hangos, képes és bizonyos eszközökön kamerás kérdésekre is tud válaszolni. A Google ezt a saját „MI-modellek családjaként” írja le, amely a keresőtől a mobilos asszisztensen át a Gmailig és a Dokumentumokig több szolgáltatásban is megjelenik. A Gemini tehát nem egyetlen program, hanem egyszerre modellnév és terméknév: erre épül például a Gemini app és részben a Google AI Mode is.
Ha elég drámaiak akarunk lenni, akkor az is kijelenthető, hogy:
A Google MI-összefoglalói olyan léptékben terjesztenek téves információkat, amire talán még nem volt példa az emberi civilizáció történetében.
A The New York Times kérésére az Oumi a Google AI Mode pontosságát vizsgálta egy olyan technológiai teszttel, amelyet az iparág széles körben használ a mesterségesintelligencia-rendszerek pontosságának mérésére. A startup először októberben tesztelte a Google rendszerét, amikor a legösszetettebb kérdésekre még a Gemini 2 nevű technológiával válaszolt, majd februárban újra elvégezte a vizsgálatot, miután a rendszert a nagyobb teljesítményű Gemini 3-ra frissítették.
Az Oumi elemzése 4326 Google-keresésre összpontosított. A cég azt találta, hogy a válaszok
Ha csak ezt nézzük, mindenki legyinthetne is, az arányok nem is olyan vészesek, a javulás jól látható. De nem árt tudni, hogy egy nap ötbillió keresést indítanak világszerte a felhasználók. Vagyis ezek az MI-összefoglalók óránként több tízmillió hibás választ adnak, percenként pedig több százezret.
Ellenőrizni kell tehát minden eredményt, ezt minden szakértő hangsúlyozza. Ugyanakkor az is probléma, hogy néha ez nehéz. Az Oumi elemzése szerint a Gemini 2 az esetek 37 százalékában adott úgynevezett „nem megalapozott” választ, vagyis a MI-összefoglalók olyan weboldalakat idéztek, amelyek nem támasztották alá az általuk közölt információt. A Gemini 3 esetében ez az arány már 56 százalékra emelkedett. Ez nemcsak arra utal, hogy a rendszer a semmiből ránt elő állításokat, hanem arra is, hogy az ilyen válaszokat a felhasználók sokkal nehezebben tudják ellenőrizni.
Túlzott riogatásnak tűnhet a címben említett társadalmi probléma, de ha nem kezdünk el mi is sokkal kritikusabb és tudatosabb felhasználókká válni és erre gyermekeinket is nevelni, akkor tényleg nagy bajok lesznek. Az MI ugyanis tét nélkül beszélhet bármilyen hülyeséget, de az emberi mulasztás sokkal veszélyesebb.
Egy 2025-ös kutatás szerint az embereknek csak 8 százaléka ellenőrzi ténylegesen az MI válaszát, egy másik tanulmány szerint pedig amikor a rendszer hibás választ adott, a résztvevők közel 80 százaléka akkor is követte azt. A kutatók erre a mintára szabad fordításban a „kognitív megadás” kifejezést használják: amikor a gép már nem segít a gondolkodásban, hanem átveszi helyettünk a döntést, és mi ezt hagyjuk.
A Képernyőidő ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.
A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.
A gyerek könnyen hiheti azt, hogy ami a Google tetején, magabiztos hangon jelenik meg, az már ellenőrzött tudás. Pedig a nagy nyelvi modellek gyakran akkor is határozottan fogalmaznak, amikor nincs mögöttük elég biztos forrás vagy egyértelmű válasz. Muszáj mindig kételkednünk és tanítanunk a kételkedést, különben még veszélyesebb világ jön, ami a dezinformációk és párhuzamos valóságok korában már merész kijelentésnek tűnhet, de sajnos nem az.