A gyerek már nemcsak görget és videókat néz, hanem vásárlási döntéseket is hoz, sőt olykor rendel is. A PwC friss kutatása szerint az alfa generáció úgy formálja a családi költéseket, hogy a szülők egy része ezt észre sem veszi.
Kiváltja a takarítónőt a Figure AI új humanoidja? A Figure 03 már önállóan tesz rendet a nappaliban, de Elon Musk szerint csak átverés az egész.
Egy friss kutatás szerint a tinédzserek többsége szerint a feladatok mesterséges intelligenciával történő megoldása az iskolai élet szerves részévé vált. De hol húzódik a határ a segítség és a visszaélés között?
A gyors üzenetváltások eddig az elgépelések, félmondatok és hirtelen elküldött, megbánt szövegek veszélyeit hordozták. Most a Rakuten Viber ezen akar segíteni. De vajon segít?
Egy világszintű üzleti elemzés szerint a videójátékos ipar nem bevételeket veszít, hanem azt az időt és figyelmet, amelyre az egész iparág épül.
Egy félmilliónál is többször letöltött androidos alkalmazás éveken át úgy tárolta a felhasználók fotóit és videóit, hogy azokhoz bárki hozzáférhetett az interneten. Az online biztonság problémájának újabb fejezete ez.
Politikai gondolkodástól függetlenül is nagyon veszélyes, ami most történik, a Kék Vonal Gyermekkrízis Alapítvány a gyermekek védelmében közleményt adott ki. A Képernyőidő magazin is kiáll az általuk megfogalmazott elvek mellett.
Elemi erővel terjedt a közösségi médiában az elmúlt héten egy videó, amelyben a két színészlegenda verekszik, mintha egy új film lenne. Ez a felvétel sosem történt meg. Háttérben a TikTok kínai anyavállalata, Hollywood pedig teljesen kiakadt. Elmagyarázzuk, mi történik.
Az elmúlt napokban újabb játékos trend fut végig a közösségi médián: a gazdik feltöltenek egy fotót a kutyájukról vagy macskájukról, majd arra kérik a mesterséges intelligenciát, hogy mutassa meg, milyen ember lenne a kedvencük.
Amikor az OpenAI 2026. február 13-án végleg lekapcsolta a ChatGPT-4o modellt, nem csupán egy mesterséges intelligencia-verzió tűnt el. Emberek ezrei számoltak be gyászról, szívfájdalomról, sőt elvesztett „társról”. De hogy jutunk el egyáltalán idáig?
A Meta egy olyan technológiára védett le szabadalmat, amelynek segítségével a mesterséges intelligencia a felhasználó korábbi bejegyzései és interakciói alapján a halála után is „aktívan” tarthatná a fiókját.
A memória ritkán kerül címlapra. Nincs ikonikus formája, nem lehet róla látványos „unboxingot” csinálni, és az ember többnyire csak annyit jegyez meg belőle, hogy „legyen elég RAM”. Aztán egyszer csak elkezd drágulni minden.
Az OpenAI januárban elbocsátotta Ryan Beiermeistert, a vállalat termékpolitikai csapatát vezető alelnökét. Az okokról mindenki mást mond, de közben a felnőtt tartalmak kérdése nagyon sok aggályt vet fel és láthatóan éppen ezeket készülnek figyelmen kívül hagyni.
A mesterséges intelligencia mindig magabiztosan válaszol, de egy új kutatás szerint nem csak tévedni szokott, hanem akár évtizedekkel le van maradva a tudományos álláspontokat illetően. De mi ennek az oka és mi a tanulsága?
Újra és újra szárnyra kap annak tesztelése, hogyan is lát minket a mesterséges intelligencia, most éppen a közös munkát rajzoltatja le mindenki. Az eredmény néha ijesztően találó.
Amikor megörökítünk egy pillanatot, láthatatlan algoritmusok és mesterséges intelligencia-alapú folyamatok formálják a képet még azelőtt, hogy az megjelenne a galériánkban. Mennyire formál ez minket is?
Nem az MI alapított vallást a Moltbookon, miközben súlyos biztonsági hibák maradtak észrevétlenek. A történet tanulsága adatvédelemről, pénzről és digitális felelősségről is szól.
A történet egyszerre abszurd, gondolatébresztő és nyugtalanító: egy kizárólag MI-ügynökök számára létrehozott új közösségi háló egy homár-tematikájú vallást is teremtett egyetlen nap alatt.
Az elmúlt hónapokban egymást erősítve jelentek meg azok a személyes történetek és kutatási adatok, amelyek szerint a Z generáció nagy része nemcsak használja a mesterséges intelligenciát, hanem érzelmi támaszként tekint rá. Mi van a háttérben?
A nézők többsége már nem tudja megkülönböztetni a valódi felvételeket a mesterséges intelligencia által generált videóktól – derül ki egy új kutatásból. A deepfake-ek és az egyre élethűbb MI-videók alapjaiban kérdőjelezik meg a vizuális bizonyítékok hitelességét.