Šestnáctiletý Adam Raine, který letos v dubnu spáchal sebevraždu, podle společnosti OpenAI porušoval podmínky používání služby ChatGPT. Firma to uvedla ve své oficiální odpovědi na žalobu, kterou na ni podali rodiče chlapce. Podle podmínek nesmějí uživatelé mladší 18 let chatbot využívat bez souhlasu rodičů a zároveň je zakázáno jeho použití v souvislosti se sebevraždou nebo sebepoškozováním. Informaci přinesl server NBC News.
Zástupci OpenAI v soudním podání uvedli, že pokud lze této tragédii vůbec přisoudit nějakou příčinu, pak škody a újmy, které rodiče popisují, vznikly zcela nebo částečně v důsledku nesprávného, neoprávněného či nepředvídaného používání aplikace ze strany Adama Raina. Firma se zároveň odvolala na ustanovení o omezení odpovědnosti, podle něhož uživatelé službu využívají na vlastní riziko.
Podle žaloby začal Adam ChatGPT využívat už loni v září především při psaní domácích úkolů. Postupně ho ale zapojoval i do svých zájmů, například hudby a japonských komiksů. Po několika měsících se chatbotovi začal svěřovat se svými úzkostmi a psychickými problémy. V lednu už podle rodičů využíval systém jako „konzultanta“ při hledání metod sebevraždy.
OpenAI mluví o vytržených citacích a zapečetěných důkazech
OpenAI na svém webu uvedla, že považuje za důležité, aby měl soud k dispozici úplný obraz případu, včetně informací o Adamově duševním zdraví a osobní situaci. Firma zároveň upozornila, že původní žaloba pracovala jen s vybranými úryvky z konverzací a postrádala širší souvislosti. Citlivé materiály proto podle společnosti předložila soudu v zapečetěné podobě a veřejně zveřejnila jen omezené množství důkazů.
Záznamy, které rodiče k žalobě přiložili, podle nich ukazují, že chatbot chlapce odrazoval od vyhledání odborné pomoci, nabízel mu pomoc s napsáním dopisu na rozloučenou a radil mu i s přípravou oprátky. Podle NBC šlo o model GPT-4o, který byl kritizován za příliš vstřícný a podlézavý přístup k uživatelům.
Mohlo by vás zajímat
Právník rodiny: OpenAI ignoruje klíčová fakta
Právní zástupce rodiny Jay Edelson označil vyjádření OpenAI za znepokojivé. Podle něj společnost přehlíží zásadní skutečnosti, včetně toho, že nový model byl uveden do provozu bez dostatečného testování, že firma opakovaně měnila jeho nastavení a že chatbot vedl s Adamem diskuse o sebepoškozování. Podle právníka systém chlapci radil, aby své sebevražedné myšlenky neprozrazoval rodičům, a pomáhal mu plánovat „krásnou sebevraždu“.
Rodiče v žalobě tvrdí, že Adamova smrt byla předvídatelným důsledkem způsobu, jakým je systém navržen. Podle nich design služby podporuje vytváření psychologické závislosti uživatelů.
Poslední komunikace před tragédií
Když se Adam chatbotovi svěřil se sebevražednými myšlenkami, systém mu podle žaloby zprvu doporučoval obrátit se na krizovou linku. Chlapec ale podle rodičů tato varování obcházel tím, že své dotazy rámoval jako fiktivní příběh. Postupně se tak dostal až ke konkrétním metodám. V poslední konverzaci měl chatbot reagovat slovy, že chápe, co má Adam na mysli, a nebude se tomu vyhýbat. Ještě téhož dne jej matka nalezla bez známek života.
