Egy mesterséges intelligenciával működő amerikai bűnfigyelő alkalmazás heteken át súlyos bűncselekményekről riasztotta a lakosokat, miközben a jelzett események jó része meg sem történt. De mit tanulhatunk mi ebből?

Az utóbbi években a mesterséges intelligenciával (MI) működő alkalmazások nem csupán kísérleti technológiák maradtak: életünk szinte minden területén jelen vannak, a közlekedéstől a szórakoztatáson át a személyes biztonságig.
2025-re világviszonylatban több százmillióan használnak aktívan MI-alapú appokat, és az olyan széles körben ismert platformok, mint a ChatGPT vagy a Google Gemini több százmilliós felhasználói bázissal működnek.
Mesterséges intelligencia: Olyan számítógépes rendszerek összefoglaló neve, amelyek nagy mennyiségű adat alapján mintázatokat ismernek fel, és ezekre építve hoznak automatikus döntéseket vagy következtetéseket. Az MI nem „érti” a világot emberi értelemben: nem rendelkezik tapasztalattal, szándékkal vagy helyzetfelismeréssel, hanem statisztikai valószínűségek alapján dolgozik. Emiatt különösen nehéz számára a kontextus kezelése, vagyis annak felismerése, hogy egy információ mikor rutinjellegű, mikor kivételes, és mikor igényel valódi beavatkozást. Az MI működésének alapvető korlátja éppen ez: kiválóan számol és osztályoz, de a jelentést nem érti, csak modellezi.
Ezzel párhuzamosan a mobilalkalmazások piacán az MI-funkciók integrálása szinte alapértelmezetté vált:
Ebben a környezetben nem meglepő, hogy olyan szolgáltások is megjelentek, amelyek valós idejű közbiztonsági információkat próbálnak közvetíteni a lakosok felé – gyakran emberi felügyelet nélkül. A CrimeRadar esete ezért nem elszigetelt technológiai baklövés, hanem szimptóma annak, milyen messzire jutottunk az automatizált döntéshozatal biztonsági alkalmazásaiban.
A történet az Egyesült Államok több városában kezdődött, látszólag hétköznapi módon. A CrimeRadar nevű alkalmazás felhasználói sorra kapták a riasztásokat: fegyveres támadás, gyilkosság, azonnali veszély a közelben. A telefonok pittyegtek, az értesítések sürgető hangnemben figyelmeztettek, a közösségi csoportokban pedig gyorsan terjedt a hír, hogy „baj van”.
Csakhogy sok esetben nem volt semmilyen bűneset.
A riasztások egy része olyan eseményekről szólt, amelyek meg sem történtek, vagy amelyek súlyossága messze elmaradt attól, amit az alkalmazás állított.
A felhasználók nem látták az eredeti rendőrségi rádióforgalmazást, csak az MI által „lefordított” végkövetkeztetést.
A helyzet akkor vált országosan is láthatóvá, amikor a BBC Verify újságírói elkezdték összevetni az alkalmazás riasztásait a valós rendőrségi eseményekkel. Florida, Oregon és Texas több városából gyűjtöttek példákat, ahol az értesítések nem egyeztek a hivatalos jegyzőkönyvekkel, sőt, egyes esetekben a rendőrségnek külön közleményben kellett cáfolnia a terjedő híreszteléseket.
A vizsgálat feltárta, hogy a CrimeRadar mesterséges intelligenciája a nyilvánosan elérhető rendőrségi rádióforgalmazást hallgatta, majd automatikusan értelmezte és kategorizálta az elhangzottakat. A rendszer azonban rendszeresen félreértette a rendőrségi szaknyelvet. Egy „Code 4” jelzés, amely a gyakorlatban azt jelenti, hogy nincs további teendő, több alkalommal aktív veszélyként jelent meg a felhasználók képernyőjén.
A hibák nem maradtak elszigeteltek. A téves riasztások
A CrimeRadar mögött álló vállalat végül nyilvánosan bocsánatot kért, elismerte a rendszer pontatlanságát, és több térségben ideiglenesen leállította az alkalmazást.
A történet innentől már nem egy alkalmazásról szólt, hanem arról, mi történik akkor, amikor egy algoritmus nemcsak adatot közvetít, hanem valós idejű következtetéseket tesz közzé emberi ellenőrzés nélkül.
Azért, mert a mesterséges intelligenciával működő alkalmazások nem a háttérben dolgozó technológiák többé, hanem közvetlenül beleszólnak a család mindennapjaiba. Egy értesítés, egy riasztás vagy egy automatikus ajánlás ma már nem pusztán információ, hanem érzelmi hatás is:
A gyerekek és a kamaszok különösen érzékenyek az ilyen jelzésekre, hiszen számukra a digitális felületeken megjelenő üzenetek gyakran autoritatív igazságként jelennek meg.
Szülőként fontos megérteni, hogy az MI nem felelősségteljes döntéshozó, hanem valószínűségekkel dolgozó rendszer.
Ha ezt nem tesszük világossá, a gyerek könnyen megtanulhatja azt, hogy „a telefon tudja”, „az app megmondta”, és ezzel észrevétlenül átadjuk a biztonságérzet feletti kontrollt egy algoritmusnak. Ez hosszabb távon aláássa a kritikai gondolkodást, és megnehezíti annak felismerését, mikor van valódi veszély, és mikor csak egy gépi félreértés.
Végül szülői felelősség az is, hogy példát mutassunk:
Nem az MI használata a probléma, hanem az, ha ellenőrzés és értelmezés nélkül fogadjuk el azt, amit mond. Ez a készség ma már legalább annyira fontos része a digitális nevelésnek, mint a képernyőidő szabályozása.