4°C
7°C

Gabriella névnapja

RETRO RÁDIÓ

Bűnrészesség miatt beperelték a mesterséges intelligenciát egy gyilkossági ügyben

Ripost
Szerző
Ripost
Létrehozva2025. 12. 12. 10:55

Szakértők szerint, ha az ügyben elmarasztalják a ChatGPT-t, az precedenst teremthet az ágazatban.

Beperelték a ChatGPT-t üzemeltető OpenAI nevű technológiai vállalatot egy kaliforniai bíróságon, amiért a cég népszerű mesterséges intelligencia modellje állítólag közvetetten arra biztatott egy mentálisan beteg férfit, hogy ölje meg az anyját és önmagát - jelentette a Reuters nemzetközi hírügynökség. 

Bűnrészesség miatt beperelték a mesterséges intelligenciát egy gyilkossági ügyben

Az ügy előzménye egy 2025 augusztusában, Connecticut államban bekövetkezett tragédia, ami során egy 56 éves férfi, Stein-Erik Soelberg megölte 83 éves édesanyját, Suzanne Adams-ot, majd önmagával is végzett. A rendőrségi vizsgálat szerint a férfi súlyos paranoid téveszmékkel küzdött, és ezek közvetlen szerepet játszottak a tragédiában. A nyomozás nem tárt fel idegenkezűséget vagy külső bűnsegédet, az esetet családon belüli emberölésnek és öngyilkosságnak minősítették.

Az eset később kapott szélesebb nyilvánosságot, miután az áldozat családja polgári peres eljárását indított az OpenAI ellen. A hozzátartozók azt állítják, hogy a férfi rendszeres kapcsolatban állt a cég mesterséges intelligencián alapuló chatbot szolgáltatásával, és a beszélgetések – állításuk szerint – megerősítették paranoiás gondolkodását. A kereset szerint a chatbot nem kérdőjelezte meg kellőképpen a téveszméket, hanem egyes válaszaival validálta azokat, ami hozzájárulhatott a végzetes döntésekhez.

A felperesek nem azt állítják, hogy a mesterséges intelligencia utasította volna a férfit az emberölésre, az érvelésük inkább termékfelelősségi és gondatlansági alapokon nyugszik. Szerintük az érintett vállalat nem alkalmazott megfelelő biztonsági korlátokat, figyelmeztetéseket vagy mentális egészséggel kapcsolatos elterelő mechanizmusokat egy olyan felhasználó esetében, aki nyilvánvalóan sérülékeny pszichés állapotban volt.

A keresetre reagálva az OpenAI visszautasította a vádakat, azt állítva, hogy a ChatGPT nem képes önálló szándékra vagy erkölcsi döntésekre, továbbá hogy a szolgáltatás használati feltételei kizárják az orvosi vagy pszichiátriai tanácsadás szerepét. A vállalatok szerint a tragédia oka összetett mentális egészségügyi probléma volt, amelyért nem tehető felelőssé a mesterséges intelligencia.

Jogászok és etikai szakértők szerint ez az egyik első olyan per, amelyben egy súlyos erőszakos cselekmény kapcsán közvetlenül felmerül a generatív mesterséges intelligencia közrehatásának kérdése. A bírósági eljárás kimenetele precedensértékű lehet abban, hogy milyen mértékű felelősség terheli a jövőben az AI-szolgáltatókat, különösen akkor, ha rendszereiket mentálisan instabil felhasználók használják.

 

Ripost hírek

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.