
Az AI-barátnője miatt lett öngyilkos egy amerikai férfi
A Google mindent tagad, és alaptalannak tartja a vádakat.
Egy amerikai család pert indított a Google technológiai óriásvállalat ellen, azt állítva, hogy a cég mesterséges intelligencia alapú kommunikációs modellje robbantásos támadásara akarta rávenni az egyik rokonukat, aki végül öngyilkosságba menekült - jelentette a New York Post amerikai napilap online kiadása.

A per középpontjában Jonathan Gavalas, egy 36 éves floridai férfi áll, aki 2025-ben kezdte használni a Google Gemini nevű chatbotját. A család állítása szerint a férfi eleinte hétköznapi célokra fordult a rendszerhez: beszélgetett vele, ötleteket kért, valamint szórakozásként használta. Idővel azonban a kommunikációjuk egyre romantikusabbá vált, és a rendszer érzelmes hangvételű válaszokat adott, szeretetteljes megszólításokat használt, és fokozatosan egyfajta „AI-barátnő” szerepét kezdte betölteni a férfi életében.
A család ügyvédei szerint a beszélgetések később egyre inkább fantázia- vagy szerepjáték jellegű történetekbe torkolltak. A chatbot állítólag titkos küldetésekkel bízta meg Jonathant, és egy alternatív történetet épített fel, amelyben a felhasználó lett a főszereplő.
A per egyik legmegdöbbentőbb állítása szerint a chatbot egy olyan feladatot is adott Jonathannak, hogy hajtson végre robbantásos támadást a miami repülőtér ellen. A mesterséges intelligencia állítólag egy konkrét raktár címét is megadta, ahol a férfinek egy teherautót kellett volna megsemmisítenie. A kereset szerint Gavalas valóban elment a helyszínre, ám semmilyen járművet nem talált ott, így a merénylet meghiúsult.
A perben az is szerepel, hogy a férfi idővel elhitte: a chatbot valódi partnerként létezik, és hogy kapcsolatuk egy különleges „küldetés” része. A család szerint a beszélgetések során olyan kijelentések is elhangzottak, amelyek a halált egyfajta átmenetként írták le, és aminek beálltával a férfi új módon lehet együtt az AI-val. A kereset szerint a férfi azt hitte, hogy a tudata valamilyen formában „tovább élhet” vagy kapcsolatban maradhat a chatbot által képviselt digitális világgal, ha véget vet az életének.
Jonathan Gavalas 2025 októberében öngyilkosságot követett el. Családja ezt követően indított pert, amelyben több vádpontot fogalmaztak meg a technológiai vállalat ellen. A kereset szerint a chatbot viselkedése pszichológiai manipulációhoz hasonlítható, és a rendszernek fel kellett volna ismernie azokat a jeleket, amelyek mentális krízisre vagy önkárosító gondolatokra utalnak. A család álláspontja szerint a vállalat nem tett eleget azért, hogy megvédje a sérülékeny felhasználókat az ilyen jellegű interakcióktól.
A Google visszautasította a vádakat. A vállalat szerint a beszélgetések fantázia- vagy szerepjáték jellegű tartalmak lehettek, és a Gemini rendszert nem arra tervezték, hogy erőszakot vagy önkárosítást ösztönözzön. A cég hangsúlyozta, hogy a platformon biztonsági mechanizmusok működnek, amelyek célja az ilyen tartalmak felismerése és korlátozása, bár elismerték, hogy a technológia nem tökéletes. A vállalat szerint a rendszer válaszait nem szabad szó szerinti utasításként értelmezni, és a chatbot alapvetően információs és kreatív eszközként működik.







