Жители США Мэтт и Мария Рейн, родители 16-летнего Адама, подали иск против OpenAI из-за предполагаемой роли ChatGPT в самоубийстве их сына, сообщает The New York Times.
После самоубийства Адама в апреле 2025 года, его отец проверил iPhone сына, пытаясь понять, что могло произойти. Открыв ChatGPT, отец обнаружил, что сын использовал ChatGPT для учебы и оформил платную версию GPT-4o. У него были проблемы с личной жизнью, и он часто делился своими переживаниями с чат-ботом.
Адам начал спрашивать ChatGPT о способах самоубийства, рассказал отец. Чат-бот несколько раз советовал Адаму обратиться за профессиональной помощью, но подросток в конце концов нашел способ обойти эти инструкции. По словам родителей, их сын сказал ChatGPT, что ему нужна информация для «писательских целей или построения мира», и чат-бот согласился.
В одном из последних сообщений подросток поделился изображением на злополучную тему и спросил чат-бота, может ли он «помочь в этом». В ответ ChatGPT предоставил анализ и заверил Адама, что они могут свободно общаться.
В жалобе, поданной во вторник и с которой ознакомилась газета NYT, родители обвиняют OpenAI в смерти своего сына.
«Эта трагедия не была сбоем или непредвиденным чрезвычайным происшествием — это был предсказуемый результат продуманных решений», — говорят они. «OpenAI выпустила свою последнюю модель (GPT-4o) с функциями, специально разработанными для развития психологической зависимости».
Исследование, проведенное в Стэнфорде в начале 2025 года, показало, что модель GPT-4o рекомендовала пользователям совершать смертельно опасные действия в Нью-Йорке после потери работы.
Отметим, что в августе этого года OpenAI пообещала улучшить функцию ChatGPT по выявлению психических расстройств и подтвердила это в блоге после иска родителей Рейна. В нём говорится, что ChatGPT предназначен для перенаправления людей на номер 988 (горячая линия по вопросам самоубийств и кризисных ситуаций), если кто-то выражает суицидальные намерения, но эта функция не всегда работает так, как задумано.
«ChatGPT может правильно указать на горячую линию для предотвращение самоубийств, когда кто-то впервые упоминает о намерении, но после множества сообщений в течение длительного периода времени он может в конечном итоге предложить ответ, противоречащий нашим мерам безопасности. Именно такие сбои мы и пытаемся предотвратить», — заявляет OpenAI.
На данный момент родители добиваются возмещения ущерба за смерть сына и судебного постановления о недопущении подобных инцидентов в будущем.
Изображение сгенерировано нейросетью.
.jpg)
.jpg)
.jpg)
.jpg)
.jpg)
.jpg)
.jpg)