
Более миллиона человек еженедельно демонстрируют суицидальные наклонности при общении с ChatGPT
Более миллиона ChatGPT пользователей каждую неделю отправляют сообщения, содержащие «явные признаки потенциального суицидального планирования или намерений». Об этом сообщает OpenAI.
Компания впервые открыто заявила, что ИИ может ухудшать проблемы с психическим здоровьем.
OpenAI также сообщила, что около 0,07 % пользователей, активных в течение недели, — примерно 560 000 из заявленных 800 млн пользователей в неделю — демонстрируют «возможные признаки психических расстройств, связанных с психозом или манией». Компания пояснила, что такие разговоры сложно обнаружить или измерить и что это лишь первоначальный анализ.
Компания OpenAI, которая создала искусственный интеллект ChatGPT, столкнулась с частыми проверками. Это произошло после того, как семья подростка подала в суд. Подросток покончил с собой после долгого общения с ChatGPT, и это вызвало большой общественный резонанс.
Теперь OpenAI и другие компании, которые делают чат-ботов, будут тщательно проверяться. Федеральная торговая комиссия США начала расследование. Они хотят узнать, как эти компании оценивают влияние своих продуктов на детей и подростков. Это позволит понять, какие риски могут быть связаны с использованием искусственного интеллекта в общении с молодыми людьми.
OpenAI сообщила, что GPT-5 улучшил работу горячих линий психологической помощи и добавил функцию напоминаний о необходимости делать перерывы при длительной работе. Для совершенствования модели компания привлекла 170 врачей из Глобальной сети врачей, которые участвовали в исследованиях, включая оценку безопасности ответов модели и помощь в составлении ответов на вопросы, связанные с психическим здоровьем.
«Психиатры и психологи проанализировали более 1800 ответов модели на вопросы о серьёзных проблемах психического здоровья и сравнили их с ответами предыдущих версий GPT», — говорится в сообщении OpenAI. Под «желательным» компания подразумевает, что эксперты пришли к единому мнению о том, каким должен быть ответ в определённых ситуациях.
Исследователи в области ИИ и защитники общественного здоровья давно опасаются, что чат-боты могут подтверждать решения пользователей или поддерживать их заблуждения, даже если это может нанести вред. Эта проблема известна как подхалимство. Эксперты по психическому здоровью также обеспокоены тем, что люди могут использовать чат-ботов для психологической поддержки, что может быть опасно для уязвимых пользователей.





