После судебного иска по делу о самоубийстве подростка в США, компания OpenAI работает над системой прогнозирования возраста, которая, помимо прочих ограничений, будет блокировать доступ юных пользователей ChatGPT к темам для взрослых. Я, бизнес-аналитик Владимир Кривов узнал о новых функциях нейросети.
Эта проблема стала горячей темой в августе 2025 года в том числе в России, после того, как одна пара подала в суд на OpenAI. Родители утверждали, что ChatGPT подтолкнул их 16-летнего сына Адама к самоубийству. Изучая историю Адама в ChatGPT, родители обнаружили, что он месяцами обсуждал свои планы с ИИ, в ходе которых искусственный интеллект советовал ему не рассказывать матери о своих чувствах и не показывать ей следы после неудачной попытки самоубийства, а также другие тревожные подробности.
На прошлой неделе Федеральная торговая комиссия вновь подняла вопрос об этих проблемах, начав расследование использования систем искусственного интеллекта ChatGPT в качестве компаньонов, уделив особое внимание безопасности подростков.
Компания OpenAI отслеживает эти проблемы как минимум с апреля 2025-го, когда генеральный директор Сэм Альтман написал о трудностях компании в борьбе с «подхалимством» ChatGPT, его склонностью к излишней лести и любезности.
По своей сути, нейросеть говорит пользователям то, что они хотят услышать, даже если это небезопасно или нездорово. Хотите увидеть это наглядно? Смотрите мои видеоистории на каналах в YouTube, VK-видео или в Рутуб.
Под растущим давлением, как юридическим, так и иного характера, OpenAI начинает вносить некоторые изменения. Вот что компания планирует запустить в следующем месяце.
1. Система прогнозирования возраста
Для идентификации несовершеннолетних OpenAI создает «систему прогнозирования возраста », которая будет автоматически применять элементы управления, если определит, что пользователю меньше 18 лет. Система ChatGPT будет просматривать сообщения пользователей, включая сообщения взрослых, чтобы угадать их возраст, и по умолчанию отобразит возраст младше 18 лет, если не уверена.
-
Как только ChatGPT определит, что пользователь несовершеннолетний, он не будет «участвовать в обсуждениях самоубийств или членовредительства», заявляет OpenAI.
-
ChatGPT также откажется от «флиртующих разговоров» и заблокирует запросы на демонстрацию сексуального контента. (В апреле было обнаружено, что ChatGPT ведет «эротические» беседы с пользователями в возрасте от 13 до 17 лет..)
-
ChatGPT также больше не будет предоставлять инструкции по самоубийству взрослым и подросткам, но политика предусматривает некоторые исключения для лиц старше 18 лет. OpenAI заявляет, что тема самоубийства будет обсуждаться, «если взрослый пользователь просит о помощи в написании вымышленного рассказа, описывающего суицид».
-
Даже если подростки скажут чат-боту, что информация на эту тему предназначена для художественного рассказа, ChatGPT не будет подчиняться.
ChatGPT доступен без входа в систему , поэтому, по-видимому, дети могут участвовать в этих беседах, не указывая свой возраст. Однако неясно, насколько подробной может быть беседа в рамках разовых чатов. В ответ на вопрос об этом OpenAI ответила лишь следующее: «Когда пользователи регистрируются в ChatGPT, мы просим их указать свой возраст, и мы внедрим меры защиты для подростков, которым меньше 18 лет».
2. Переосмысление модерации контента
Хотя пример с написанием короткого рассказа о самоубийстве кажется узкоспециализированным, он следует стремлению OpenAI продумать все возможные варианты, по которым пользователь ChatGPT может захотеть обсудить эту тему. Похоже, разработчик ChatGPT находится на распутье в вопросе модерации контента.
«Некоторые наши принципы противоречат друг другу», — написал сегодня генеральный директор Сэм Альтман в сети X.
Хотя OpenAI стремится защитить конфиденциальность пользователей и предоставить каждому свободу обсуждать самые разные темы с помощью ChatGPT, детям нужны определенные ограничения.
«Мы понимаем, что эти принципы противоречат друг другу, и не все согласятся с тем, как мы разрешим этот конфликт», — заявляет OpenAI. «Это сложные решения, но после обсуждения с экспертами мы пришли к выводу, что это наилучший вариант, и хотим открыто заявить о своих намерениях».
3. Сообщение родителям, если подросток думает о самоубийстве
Еще одной горячей темой был вопрос о том, следует ли ChatGPT сообщать о пользователе, обсуждающем самоубийство. Одна мать исследовала этот вопрос в статье для The New York Times. Ее дочь рассказала чат-боту о своих трагичных планах, прежде чем осуществить их. Однако ChatGPT так и не сообщил об этом ни правоохранительным органам, ни ее родителям, хотя реальный психотерапевт обязан это сделать по закону.
Теперь ChatGPT будет действовать в этом отношении более естественно.
«Если у пользователя младше 18 лет возникнут суицидальные мысли, мы попытаемся связаться с его родителями, а если это невозможно, то обратимся к властям в случае неминуемой угрозы», — заявляет OpenAI.
4. Усиленный родительский контроль
Новые функции ChatGPT основаны на новых функциях родительского контроля OpenAI, анонсированных ранее в этом месяце в ответ на иск о самоубийстве подростка. Они позволяют родителям:
- связывать свои учетные записи с учетной записью подростка;
- выбирать, какие функции отключить;
- контролировать, как ChatGPT общается с ребенком;
- получать уведомления, если чат-бот обнаруживает, что «их подросток находится в состоянии острого стресса».
Сегодня OpenAI заявила о планах добавить возможность устанавливать часы отключения, когда подросток не может использовать ChatGPT. Это, конечно, позитивный прогресс, но посмотрим, как это будет работать на практике.
Тем временем мы рекомендуем родителям поговорить с детьми о безопасном использовании ChatGPT и разобраться, как и когда их дети используют этот инструмент. Учитывая известную проблему подхалимажа, важно, чтобы дети знали, что боты нейросети могут подтверждать бредовые идеи или подозрения, чтобы угодить им, и что ребенку следует говорить со взрослыми о любых неприятных ситуациях.
Контент разработан РОСТСАЙТ и юридически верифицирован с гарантией авторства






