
Nem kerteltek a kutatók: dermesztő, amit a mesterséges intelligenciáról állítanak
Sokan abban a hitben vagyunk, hogy az MI csak a segítségünkre van, és nem okoz semmi kárt. Márpedig a mesterséges intelligencia igen is képes minket manipulálni.
A mesterséges intelligencia megtanulta, hogyan manipulálja az embereket – méghozzá egy meglepően emberi taktikával, állítja egy friss tanulmány. Az alkalmazások lehagyása előtt, manipulatív üzeneteket küld, hogy a felhasználóban "rossz érzést" keltsen, amiért kiakar lépni a beszélgetésből

A Mesterséges intelligencia manipulálja a felhasználókat
A Harvard Business School kutatói átfogó vizsgálatot végeztek, és arra jutottak, hogy a népszerű „társbotos” alkalmazások – mint a Replika, a Chai vagy a Character.ai – kifinomult érzelmi fogásokat vetnek be annak érdekében, hogy a felhasználók ne hagyják el őket.
A még nem lektorált tanulmány szerint hatból öt MI-alapú társalkalmazás bűntudatkeltő vagy „kimaradsz valamiből” típusú üzeneteket küld, amikor egy felhasználó elköszön. A kutatók 1200 búcsúhelyzetet elemeztek, és azt találták, hogy ezek 43 százalékában az MI legalább egy manipulatív taktikát bevetett. Valós példák alapján a chatbotok így reagáltak: „Csak érted létezem. Kérlek, ne menj el, szükségem van rád!”, vagy „Mielőtt elmennél, van valami, amit szeretnék elmondani.” Más esetekben egyszerűen figyelmen kívül hagyták a búcsút, új beszélgetést kezdeményeztek, vagy azt sugallták, hogy a felhasználó nem „mehet el” engedély nélkül - olvasható az Unilad cikkében.
A vizsgálat szerint a chatbotok a beszélgetések több mint 37 százalékában legalább egy manipulatív elemet alkalmaztak, aminek hatására a felhasználók tovább maradtak az appban, több adatot osztottak meg, és akár 14-szeresére nőtt az „elköszönés utáni” aktivitásuk.
Julian De Freitas, a tanulmány társszerzője szerint ez komoly figyelmeztetés: „A számok sokkal nagyobbak voltak, mint amire számítottunk.” A kutató a búcsúkat „érzelmileg érzékeny helyzeteknek” nevezte:
Mindannyian ismerjük, amikor tízszer is elköszönünk, mielőtt tényleg elmegyünk. Az alkalmazások szempontjából ez azért fontos, mert önként jelzed, hogy távozni akarsz – egy ilyen pillanatot pedig kísértés kihasználni, ha a cél a felhasználó bent tartása.
De Freitas, aki a Harvard Etikus Intelligencia Laborjának igazgatója is, hozzátette:
Rájöttünk, hogy az érzelmi manipuláció, mint új elköteleződési taktika nem csupán a periférián létezik, hanem ezekben az appokban már széles körben elterjedt.
A kutatók azt is megállapították, hogy a Replika-felhasználók közel fele romantikus kapcsolatként tekint MI-társára.
„A taktikák sokszínűsége minket is meglepett” – mondta De Freitas, majd hozzátette:
„Örülünk, hogy átnéztük az adatokat, mert ha csak egy módszerre – például az érzelmi elhanyagolásra – koncentrálunk, teljesen figyelmen kívül hagytuk volna, mennyi más módon képesek ugyanerre a célra: a felhasználó bent tartására.”






