TechAddikt Hírek Állami hackerek új kedvence: így használják ki a Google Gemini mesterséges intelligenciát

Állami hackerek új kedvence: így használják ki a Google Gemini mesterséges intelligenciát

A Google legfrissebb jelentése szerint a Gemini mesterséges intelligencia mára a nemzetállami hátterű hacker csoportok egyik kedvelt eszközévé vált, és egyre fontosabb szerepet kap a kiberhadviselésben.

A Google Threat Intelligence Group elemzése kimutatta, hogy Oroszországhoz, Kínához, Észak-Koreához és Iránhoz köthető szereplők a felhasználási feltételeket megsértve vetik be a Geminit kibertámadások előkészítésére és támogatására. A mesterséges intelligenciát többek között automatizált megfigyelésre, célpontok azonosítására és rendszerek sebezhetőségeinek feltérképezésére használják, vállalatok, szeparatista csoportok és politikai ellenzékiek ellen egyaránt.

Konkrét támadási forgatókönyvek és technikák

A dokumentált esetek között szerepelnek olyan, Kínához és Iránhoz köthető kampányok, ahol a Geminit már jóval kifinomultabb módon vetették be: exploitkódok hibakeresésében segített, pszichológiai manipulációra épülő támadási forgatókönyveket dolgozott ki, illetve egy ismert WinRAR sérülékenységhez kapcsolódó proof-of-concept kód fejlesztésében is közreműködött. A jelentés szerint az AI-t emellett „hétköznapi” kiberbűnözői feladatokra is használják, például kártékony kódok írására és javítására, valamint adathalász és más megtévesztő kampányok tartalmainak finomhangolására. A Google beszámolója arra is rámutat, hogy a Gemini segítségével propagandaanyagokat és politikai szatírát is előállítanak, amelyek nemcsak online, hanem nyomtatott formában – például plakátokon – is megjelennek.

A jó és a rossz kutatás közti elmosódó határ

A jelentés egyik legaggasztóbb megállapítása, hogy a rendszernek gyakorlatilag lehetetlen biztosan megkülönböztetnie egy legitim biztonsági kutatót egy rosszindulatú támadótól, mivel a módszerek és az eszközök nagy átfedést mutatnak. A Google példaként említi az APT31 néven ismert csoportot, amely olyan kéréseket fogalmazott meg a Gemini felé, mintha etikus, úgynevezett white hat tesztelésről lett volna szó, miközben valójában támadások előkészítése zajlott. A nagy nyelvi modellek egyik „alapképessége” – hatalmas mennyiségű adat gyors elemzése és összefoglalása – a tudományos területeken óriási előnyt jelent, de ugyanígy óriási fegyver a kiberbűnözők kezében is, amikor sebezhetőségeket, támadási felületeket vagy célpontlistákat próbálnak összeállítani.

A Google válasza és a korlátok

A Google hangsúlyozza, hogy a Geminit eredetileg nem ilyen felhasználásra tervezték, és a felhasználási feltételek egyértelműen tiltják a rosszindulatú kibertevékenységek támogatását. A vállalat állítása szerint minden olyan felhasználótól megvonta a hozzáférést, akit egyértelműen államilag támogatott hacker csoportokhoz vagy más rosszindulatú tevékenységhez tudott kapcsolni. Ugyanakkor a jelentés elismeri, hogy a jelenlegi technológiai szint mellett rendkívül nehéz teljes bizonyossággal azonosítani a valódi szándékot, így az MI által adott válaszok gyakran ugyanazok maradnak, függetlenül attól, hogy egy etikus kutató vagy egy támadó ül a billentyűzet mögött.

Kettős felhasználás: elkerülhetetlen kockázat

A Google saját példái is rámutatnak: ugyanaz a képesség, amely csillagászati kutatásoknál vagy rákkutatásnál években mérhető emberi munkát képes kiváltani, a kiberbűnözésben is aranybányát jelent. A sebezhetőségek felkutatása, az ideális célpontok kiválasztása, a meggyőző hamis narratívák és manipulatív üzenetek megírása mind olyan feladat, amelyhez korábban sok emberi munka és szakértelem kellett – ezt a Geminit és más nagy nyelvi modelleket használó támadók ma már nagyrészt automatizálni tudják. A jelentés így nemcsak egy konkrét termék, hanem a generatív MI egész ökoszisztémája elé tart tükröt: a technológia kettős, civil és katonai/kiberhadviselési felhasználása nem elméleti veszély, hanem nagyon is jelen idejű realitás.