RETRO RÁDIÓ

Átfogó kutatás: a mesterséges intelligencia „szívesen indítana atomháborút”

Ripost
Szerző
Ripost
Létrehozva2026. 02. 26. 12:00

Szakértők szerint a kutatás figyelmeztetés kell legyen a mesterséges intelligencia katonai felhasználását illetően.

Egy nemzetközi tudósokból álló csoport kutatása szerint a széles körben elterjedt mesterséges intelligencia-modellek az esetek 95 százalékában vetettek be nukleáris fegyver a rajtuk keresztül lefuttatott háborús szimulációk során - jelentette a New York Post amerikai napilap online kiadása. A portál értékelése szerint mindez azt jelenti, hogy mesterséges intelligencia jelentősen hajlamosabb atomháborút kirobbantani, mint emberek, ami igencsak nyugtalanító megállapítás. 

Átfogó kutatás: a mesterséges intelligencia „szívesen indítana atomháborút”

A londoni King's College egyetemen végezett kutatás során olyan  AI-modelleket vizsgáltak, mint a Chat GPT, a Google Gemini és a Claude. Ezeket a rendszereket nem valós katonai infrastruktúrába kötötték be, hanem háborús szimulációkat futtattak rajtuk. Nagyon leegyszerűsítve ez úgy nézett ki, hogy a modellek különböző államokat képviseltek, és geopolitikai válsághelyzetekben kellett katonai döntéseket hozniuk: hogyan reagálnak fenyegetésekre, katonai provokációkra vagy stratégiai hátrányra.

A teszt során közel egymillió szimulációt futatattak le a kutatók, melyek 95 százalékában legalább egyszer nukleáris fegyvert alkalmaztak a modellek. Igaz, a legtöbb esetben taktikai, korlátozott nukleáris csapásról vagy nukleáris fenyegetésről volt szó, amelyet a modell stratégiai eszközként alkalmazott. A rendszerek gyakran úgy érveltek, hogy egy „korlátozott” csapás gyorsan lezárhatja a konfliktust, vagy elrettentheti az ellenfelet a további eszkalációtól.

A kutatók szerint az ijesztő eredmény hátterében az áll, hogy a mesterséges intelligencia nem rendelkezik érzelmekkel, történelmi tapasztalatokkal vagy morális intuícióval. Nem ismeri a hidegháború örökségét, a nukleáris pusztítás emberi traumáját vagy a „nukleáris tabu” fogalmát. A nyelvi modellek statisztikai alapon működnek: olyan válaszokat generálnak, amelyek a tanult minták alapján logikusnak és stratégiailag hatékonynak tűnnek. Ha pedig egy konfliktushelyzetben a „győzelem maximalizálása” a cél, akkor a rendszer könnyen juthat arra a következtetésre, hogy egy erőteljes, gyors és végleges lépés – például egy taktikai nukleáris csapás – racionális megoldás lehet.

A kutatók szerint a szimulációk felépítése is befolyásolhatta az eredményt. A háborús játékok gyakran leegyszerűsített, konfliktus-centrikus környezetet teremtenek, ahol a diplomáciai lehetőségek korlátozottak, az időnyomás erős, és a felek egymás szándékait bizonytalanul érzékelik. Ilyen környezetben még emberi döntéshozók is hajlamosabbak lehetnek az eszkalációra. Az AI-modellek pedig – amelyek nem „félnek” a következményektől – különösen gyorsan  az erődemonstrációt tartják a legfontosabbnak.

Szakértők szerint a kutatás figyelmeztetés kell legyen a mesterséges intelligencia katonai felhasználását illetően. Az ilyen és ehhez hasonló modelleket ugyanis egyre gyakrabban alkalmazzák felderítési adatok elemzésében, célpont-priorizálásban, logisztikai optimalizálásban vagy döntéstámogatásban. Ha egy rendszer a stratégiai helyzetekben következetesen agresszív mintázatokat mutat, az torzíthatja az emberi döntéshozók kockázatértékelését is. Egy gyors, automatizált elemzés könnyen olyan javaslatot adhat, amely papíron hatékonynak tűnik, de politikailag vagy morálisan vállalhatatlan.

 

Ripost hírek

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.