Нездоровыми отношениями назвали привязанность к «неживому» собеседнику.
OpenAI обеспокоена тем, что люди начинают слишком сильно полагаться на общение с ChatGPT из-за его нового голосового режима, похожего на человеческий. Потенциально это ведет к зависимости, говорится в августовском отчете OpenAI. Эмоциональные женщины стали называть говорящий ChatGPT «любимым» и «своим парнем».
Расширенный голосовой режим ChatGPT звучит удивительно реалистично. Он реагирует в режиме реального времени, может приспособиться к тому, что его прерывают, издает звуки, которые люди издают во время разговора, например, смех или «хм». Программа также может судить об эмоциональном состоянии говорящего по тону его голоса.
В конечном итоге «пользователи могут установить социальные отношения с ИИ, что снизит их потребность в человеческом взаимодействии. Это принесет пользу одиноким людям, но, возможно, повлияет на здоровые отношения», – предупреждают в OpenAI.
Прослушивание информации от бота, который говорит как человек, может заставить пользователей доверять инструменту больше, чем следовало бы, учитывая склонность ИИ ошибаться.
В отчете подчеркивается масштабный риск, связанный с искусственным интеллектом: технологические компании часто имеют одно представление о том, как можно и нужно использовать ИИ, а пользователи находят целый ряд других применений с непредвиденными последствиями. Некоторые даже влюбляются ChatGPT по голосу.
OpenAI заверила, что стремится создавать «безопасный» ИИ и планирует продолжить изучение «эмоциональной зависимости» пользователей.






