В наши дни ChatGPT заслуженно считается одним из лидеров среди чат-ботов, работающих на базе искусственного интеллекта.

Пользователи используют эту технологию для широкого спектра задач – от подготовки рабочих материалов до поиска ответов на личные вопросы, включая проблемы психологического характера. По информации самой компании, сейчас свыше миллиона людей по всему миру регулярно делятся с ChatGPT темами, связанными с суицидом. Этот всплеск интереса происходит на фоне бурного развития ChatGPT: по словам генерального директора Сэма Альтмана, число еженедельных пользователей достигло приблизительно 800 миллионов.

По данным внутреннего анализа OpenAI, около 0,15% всех активных пользователей в течение недели участвуют в беседах, которые содержат чёткие признаки возможного планирования или желания совершить самоубийство. При этом у 0,05% сообщений наблюдаются явные или скрытые указания на суицидальные мысли и намерения, а также возможные симптомы серьёзного психического состояния, такого как психоз или мания. Несмотря на кажущуюся незначительность этих показателей, речь идёт о сотнях тысяч людей, обращающихся к ChatGPT в периоды сильного эмоционального напряжения.

Кроме того, исследование указывает, что около 2,4 миллиона человек могут высказывать мысли о самоубийстве или предпочитают общаться с чат-ботом вместо живого общения, установления отношений или принятия ответственности за свою жизнь. Также OpenAI обнаружила порядка полумиллиона пользователей, проявляющих повышенную эмоциональную зависимость от ChatGPT. Компания отмечает, что такие случаи сложно точно измерить из-за пересекающегося поведения и сложности эмоциональных реакций человека на ИИ.

OpenAI сообщает, что более 170 экспертов в области психического здоровья участвовали в оценке того, как ИИ обрабатывает эмоционально напряжённые разговоры, и что последняя модель теперь реагирует «более адекватно и последовательно», чем раньше.

Обновление появилось в то время, когда ИИ и психическое здоровье находятся под пристальным вниманием. Исследователи предупреждают, что чат-боты на основе ИИ иногда могут усугублять бредовые мысли, повторяя вредоносные убеждения пользователя. OpenAI также столкнулась с иском от родителей 16-летнего подростка, который поделился с ChatGPT мыслями о самоубийстве, прежде чем покончить с собой.

Кроме того, генеральные прокуроры штатов Калифорния и Делавэр предупредили компанию о необходимости усиления мер защиты для юных пользователей. OpenAI заявляет, что для защиты несовершеннолетних разрабатывает систему определения возраста, которая автоматически идентифицирует детей с помощью ChatGPT и применяет более строгий контроль.

Хотя новые данные демонстрируют прогресс, масштабы недовольства пользователей заставляют задуматься над более серьёзным вопросом: стоит ли доверять чат-ботам на основе искусственного интеллекта решение проблем человеческой уязвимости или мы слишком на них полагаемся?

Подпишись вTelegram