
Átfogó kutatás: a mesterséges intelligencia „szívesen indítana atomháborút”
Szakértők szerint a kutatás figyelmeztetés kell legyen a mesterséges intelligencia katonai felhasználását illetően.
Egy nemzetközi tudósokból álló csoport kutatása szerint a széles körben elterjedt mesterséges intelligencia-modellek az esetek 95 százalékában vetettek be nukleáris fegyver a rajtuk keresztül lefuttatott háborús szimulációk során - jelentette a New York Post amerikai napilap online kiadása. A portál értékelése szerint mindez azt jelenti, hogy mesterséges intelligencia jelentősen hajlamosabb atomháborút kirobbantani, mint emberek, ami igencsak nyugtalanító megállapítás.

A londoni King's College egyetemen végezett kutatás során olyan AI-modelleket vizsgáltak, mint a Chat GPT, a Google Gemini és a Claude. Ezeket a rendszereket nem valós katonai infrastruktúrába kötötték be, hanem háborús szimulációkat futtattak rajtuk. Nagyon leegyszerűsítve ez úgy nézett ki, hogy a modellek különböző államokat képviseltek, és geopolitikai válsághelyzetekben kellett katonai döntéseket hozniuk: hogyan reagálnak fenyegetésekre, katonai provokációkra vagy stratégiai hátrányra.
A teszt során közel egymillió szimulációt futatattak le a kutatók, melyek 95 százalékában legalább egyszer nukleáris fegyvert alkalmaztak a modellek. Igaz, a legtöbb esetben taktikai, korlátozott nukleáris csapásról vagy nukleáris fenyegetésről volt szó, amelyet a modell stratégiai eszközként alkalmazott. A rendszerek gyakran úgy érveltek, hogy egy „korlátozott” csapás gyorsan lezárhatja a konfliktust, vagy elrettentheti az ellenfelet a további eszkalációtól.
A kutatók szerint az ijesztő eredmény hátterében az áll, hogy a mesterséges intelligencia nem rendelkezik érzelmekkel, történelmi tapasztalatokkal vagy morális intuícióval. Nem ismeri a hidegháború örökségét, a nukleáris pusztítás emberi traumáját vagy a „nukleáris tabu” fogalmát. A nyelvi modellek statisztikai alapon működnek: olyan válaszokat generálnak, amelyek a tanult minták alapján logikusnak és stratégiailag hatékonynak tűnnek. Ha pedig egy konfliktushelyzetben a „győzelem maximalizálása” a cél, akkor a rendszer könnyen juthat arra a következtetésre, hogy egy erőteljes, gyors és végleges lépés – például egy taktikai nukleáris csapás – racionális megoldás lehet.
A kutatók szerint a szimulációk felépítése is befolyásolhatta az eredményt. A háborús játékok gyakran leegyszerűsített, konfliktus-centrikus környezetet teremtenek, ahol a diplomáciai lehetőségek korlátozottak, az időnyomás erős, és a felek egymás szándékait bizonytalanul érzékelik. Ilyen környezetben még emberi döntéshozók is hajlamosabbak lehetnek az eszkalációra. Az AI-modellek pedig – amelyek nem „félnek” a következményektől – különösen gyorsan az erődemonstrációt tartják a legfontosabbnak.
Szakértők szerint a kutatás figyelmeztetés kell legyen a mesterséges intelligencia katonai felhasználását illetően. Az ilyen és ehhez hasonló modelleket ugyanis egyre gyakrabban alkalmazzák felderítési adatok elemzésében, célpont-priorizálásban, logisztikai optimalizálásban vagy döntéstámogatásban. Ha egy rendszer a stratégiai helyzetekben következetesen agresszív mintázatokat mutat, az torzíthatja az emberi döntéshozók kockázatértékelését is. Egy gyors, automatizált elemzés könnyen olyan javaslatot adhat, amely papíron hatékonynak tűnik, de politikailag vagy morálisan vállalhatatlan.







