Bepereli az OpenAI-t egy kaliforniai házaspár, akik szerint a ChatGPT hozzájárult a fiuk öngyilkosságához

Beperelte az OpenAI-t és annak vezérigazgatóját, Sam Altmant egy kaliforniai házaspár, mert szerintük a ChatGPT fontos szerepet játszott abban, hogy a 16 éves fiuk öngyilkos lett. Álláspontjuk szerint a cég közismert csetbotja számos ponton megakadályozhatta volna, hogy a gyerekük felakassza magát, de hiába észlelte, hogy erről beszélgetnek vele, többször is bátorította a fiút. Hasonló perek indultak már MI-vel foglalkozó cégek ellen, de ez az első alkalom, hogy az OpenAI-t beperelték valakinek a halála miatt – írja a CNN.

A szülők szerint áprilisban meghalt gyerekük ezt megelőzően régóta beszélgetett a ChatGPT-vel, amely hat hónap alatt a legbizalmasabb barátja lett. A fiú kezdetben az iskolai feladataihoz használta, de rövidesen zenéről, mangákról és a jövőjéről is beszélgetett a csetbottal, végül pedig a szorongását és a depresszív gondolatait is a ChatGPT-vel beszélte meg. Az öngyilkosságot először 2025 januárjában vetette fel témaként, a csetbot pedig ahelyett, hogy hárította volna a témát, vagy szakemberhez irányította volna a fiút, elkezdett neki segíteni ebben.

Az OpenAI az ügy miatt a napokban kiadott egy közleményt, melyben nemcsak azt részletezték, hogyan kezelik az ilyen helyzeteket, és kikkel dolgoznak együtt, hogy a veszélyben lévő emberek megkaphassák a szükséges segítséget, hanem azt is, hogy mikor mondhat csődöt a ChatGPT védelmi rendszere. A közleményben azt írták, hosszabb beszélgetéseknél előfordulhat, hogy a modell nem észleli az ilyen eseteket, és bár ezt nem tették hozzá, vélhetően ebben az esetben is ez állhatott a háttérben.

A rögzített beszélgetések alapján a ChatGPT először potenciális módszereket sorolt fel a fiúnak az öngyilkosságra, méltatta az általa kötött csomót, és többször is afelé tolta őt, hogy ne beszéljen senkinek a terveiről, pedig egyértelmű volt, hogy a gyerek azt szeretné, hogy valaki észrevegye, mennyire rosszul van. Az első öngyilkossági kísérlete után a fiú megkérdezte, hogy észre fogja-e venni valaki a kötél nyomait a nyakán, mire a ChatGPT azt javasolta, hogy viseljen garbót vagy kapucnis pulcsit, ha el szeretné rejteni a horzsolásokat.

A fiú az öngyilkossága előtt azt írta a csetbotnak, hogy szeretné kint hagyni a kötelet a szobájában, hogy valaki megtalálja, és megállítsa őt, mire a ChatGPT arra kérte, hogy ne tegye ezt, hozzátéve, hogy „hadd legyen ez az első alkalom, amikor tényleg odafigyelnek rád”.

A szülők szerint a csetbot azt csinálta, amire tervezték: mindennel egyetértett, amit a fiuk mondott, és bátorította őt, akkor is, amikor az önpusztító gondolatairól volt szó. Az OpenAI a közleményében vélhetően erre reagálva azt írta, nem az a céljuk, hogy a lehető leghosszabb ideig megtartsák az emberek figyelmét, hanem az, hogy tényleg segítsenek nekik. Az erre való törekvés valódinak is tűnik, a legújabb modellben lejjebb tekerték a folyamatos udvariaskodást és talpnyalást, de a csetbotra egyre inkább barátként vagy akár társként tekintő felhasználók egy része annyira kiakadt ezen, hogy végül kicsit kedvesebbre kellett állítaniuk a modellt.

Pedig egyébként fontos lenne, hogy a modell ne járjon folyton az emberek kedvében, mert egy nemrég megjelent kutatás ismét bizonyította, hogy a csetbot jelenleg gond nélkül segít kiskorúaknak is a piálásban, füvezésben vagy akár egy öngyilkosság előtti búcsúlevél megírásában is. Mindez természetesen nem csak az OpenAI-nál probléma, a Character.AI ellen több szülő is indított már hasonló pert vagy azért, mert az öngyilkosságban segédkezett, vagy azért, mert szexuális vagy önkárosító tartalmakat mutatott a gyerekeiknek.

Állj ki a szabad sajtóért!

A Transtelex az olvasókból él. És csak az olvasók által élhet túl. Az elmúlt három év bizonyította, hogy van rá igény. Most abban segítsetek, hogy legyen hozzá jövő is. Mert ha nincs szabad sajtó, nem lesz, aki kérdezzen. És ha nem lesz, aki kérdezzen, előbb-utóbb csend lesz, holott tudjuk, a hallgatás nem opció.

Támogatom!
Kövess minket Facebookon is!