Ne kérj jelszót a ChatGPT-től: egy friss kutatás szerint a mesterséges intelligencia nem jó biztonsági tanácsadónak

A mesterséges intelligencia akkor is magabiztos, amikor hülyeségeket válaszol. Ugyanez a magabiztosság teheti félrevezetővé azt is, amikor valaki a ChatGPT-től, a Geminitől vagy a Claude-tól kér jelszót védelemhez. Biztonságosnak tűnik, de nem az.

Ne kérj jelszót a ChatGPT-től: egy friss kutatás szerint a mesterséges intelligencia nem jó biztonsági tanácsadónak

Amikor online biztonságról beszélünk, jól tudjuk, hogy sokszor az ember a leggyengébb láncszem. Legtöbbször ugyanazokat a belépési adatokat használjuk több helyen, túl rövid vagy könnyen kitalálható kombinációkat választunk, vagy éppen olyan megoldásokra támaszkodunk, amelyek kényelmesnek tűnnek, de nem jelentenek valódi biztonságot. Mint például a mesterséges intelligencia.

Egy friss biztonsági elemzés szerint azonban a chatbotok által kapott biztonsági jelszavak szerkezetükben gyakran kiszámíthatók, ismétlődők, és jóval gyengébbek annál, mint amilyennek látszanak. 

Az Irregular nevű biztonsági cég szerint a nagy nyelvi modellek nem valódi véletlenszám-generátorok, hanem olyan rendszerek, amelyek valószínűségi minták alapján jósolják meg a következő karaktert. Ez pedig éppen az ellenkezője annak, amire egy jó jelszónál szükség lenne. A cég szerint ezért a közvetlenül a chatbot által generált jelszavak „erősnek látszanak, de alapvetően könnyen feltörhetőek”, ezért egyáltalán nem javasolt segítséget kérni a mesterséges intelligenciától, ha jelszót akarunk kitalálni.

🧠 Miről is van szó pontosan?

Nagy nyelvi modell (LLM): Olyan mesterségesintelligencia-rendszer, amely hatalmas mennyiségű szövegen tanul, és valószínűségi alapon állít elő válaszokat. Nem „tudja” a helyes megoldást úgy, mint egy számológép vagy titkosítási eszköz, hanem a legvalószínűbb következő elemet próbálja kiválasztani.

A kutatás egyik legbeszédesebb része az volt, amikor ugyanazt az egyszerű kérést többször lefuttatták.

  • A Claude esetében 50 próbálkozásból csak 30 egyedi jelszó született,
  • a leggyakoribb karakterlánc 18 alkalommal ismétlődött meg,
  • a vizsgált jelszavak között ráadásul jól látható szerkezeti minták is megjelentek, például sokszor egy adott kezdő karakterrel indultak, és ugyanazok a betűk, számok, szimbólumok tértek vissza újra és újra.
Irány a webshop! Irány a webshop! Hirdetés

A ChatGPT-nél és Gemininél is hasonló szabályosságokat láttak, még ha a pontos mintázat eltért is modellenként. Az ok egyszerű:

az ilyen modellek nem valódi véletlenszerűséggel dolgoznak, hanem tanult statisztikai valószínűségekkel.

A probléma egyik kellemetlen eleme, hogy ezek a jelszavak külső szemmel még át is csúszhatnak az egyszerűbb jelszóellenőrzőkön. Vagyis lehet bennük kis- és nagybetű, szám, speciális karakter, megfelelő hosszúság is, mégsem elég jók. A forma ugyanis nem ugyanaz, mint a valódi véletlenszerűség. 

Ha többet akarsz tudni, kövess minket Facebookon, Instagramon és Viberen is!

Miért fontos ez szülőként is?

Mert a család digitális biztonsága jellemzően nem egyetlen nagy hibán, hanem sok apró kényelmi döntésen múlik. Egy szülő ma már gyakran kezeli a gyerek iskolai platformjait, streamingfiókjait, játékos belépéseit, közös családi e-mailjét, sőt akár digitális pénzügyi szolgáltatásait is. Ha ezek közül csak néhányhoz készül „gyorsan” egy csetbotos jelszó, máris nő a kockázat.

A másik ok pedagógiai. A gyerekek nagyon gyorsan megtanulják, mire használjuk a mesterséges intelligenciát. Ha azt látják, hogy a felnőtt a biztonságot is egy beszélgető robotra bízza, könnyen azt a mintát viszik tovább, hogy a mesterséges intelligencia minden helyzetben megbízható. Pedig itt épp az ellenkezője látszik: van, amiben ügyes, és van, amiben kifejezetten rossz.

SEGÍTS, HOGY SEGÍTHESSÜNK!

A Képernyőidő tényleg ingyenes, de nem ingyen készül. Segítsd munkánkat egy tetszőleges adománnyal, hogy minél több tartalom születhessen.

Számlaszám: 12100011-19129370
Név: LogIn Digitális Edukáció Egyesület
A tárgy mezőbe írd be, hogy adomány. Köszönjük segítséged, igyekszünk megszolgálni.

Mit tehetünk szülőként?

  • Először is érdemes végignézni, van-e a családban olyan fontos fiók, amelyhez valaki valaha chatbottal generált jelszót. Ha igen, azt jobb lecserélni.
  • Másodszor, a fontos belépésekhez használjunk jelszókezelőt, és ahol lehet, kapcsoljuk be a kétlépcsős azonosítást vagy a passkey-alapú belépést. Ezek nem látványos megoldások, de nagyságrenddel biztonságosabbak annál, mint amikor egy chatbot „kreativitására” bízzuk a véletlent.

🧠 Miről is van szó pontosan?

Jelszókezelő: Olyan alkalmazás vagy szolgáltatás, amely biztonságosan tárolja a belépési adataidat, és segít abban, hogy ne ugyanazt az egyszerű jelszót használd mindenhol. A jó jelszókezelő hosszú, egyedi jelszavakat tud létrehozni, neked pedig elég egyetlen erős mesterjelszót megjegyezned.

Kétlépcsős azonosítás: Olyan extra védelmi réteg, amely a jelszó beírása után még egy második megerősítést is kér, például egy telefonra érkező kódot vagy hitelesítő alkalmazásban generált azonosítót. Ettől egy ellopott vagy kitalált jelszó önmagában még nem lesz elég ahhoz, hogy valaki belépjen a fiókodba.

Passkey: A jelszó nélküli belépés egyik modernebb formája, amely a készülékedhez kötött digitális kulccsal azonosít. A gyakorlatban ez többnyire ujjlenyomattal, arcfelismeréssel vagy képernyőzárral működik, és azért biztonságosabb, mert nincs olyan hagyományos jelszó, amit el lehetne lopni, újra lehetne használni vagy egy hamis oldalon ki lehetne csalni.

  • Harmadszor, érdemes külön megtanítani a gyerekeknek, hogy a mesterséges intelligenciát segítségkérő eszközként használják, ne varázsdobozként. Kérdezhetnek tőle a jó jelszó jellemzőiről, de a konkrét jelszó előállítása ne ott történjen.
  • És végül a legfontosabb: ha mi adunk jelszót, az legyen hosszú, egyedi, és ne kapcsolódjon könnyen kitalálható személyes adathoz, például névhez, születési dátumhoz vagy kedvenc hobbinkhoz. Fontos, hogy ugyanazt a jelszót ne használjuk több helyen, mert ha egy szolgáltatásnál kiszivárog, azzal több fiók is veszélybe kerülhet.

Ez a kutatás valójában egy nagyobb problémára világít rá. A mesterséges intelligencia egyre több helyen kínál gyors, kényelmes és meggyőző válaszokat, de a meggyőző forma nem garancia a helyes megoldásra, vagy éppen a biztonságra. A jelszó azért különösen jó példa erre, mert itt a hiba sokáig láthatatlan maradhat. Nem omlik össze tőle azonnal a rendszer, nem dob piros hibajelzést a képernyő, csak gyengébb lesz a védelem. 

Mantaro Webshop Mantaro Webshop Hirdetés