«Вплоть до психоза». Врачи назвали риски отклонений из-за частого использования чат-ботов

Психолог Никишина предупредила о рисках «доверительного общения» с чат-ботамиИрина НевиннаяВсеобщая эйфория от широких возможностей, которые люди получили благодаря развитию технологий ИИ, кажется, постепенно заканчивается. Регулярное использование чат-ботов может даже спровоцировать психоз. О таком результате исследований историй болезни десятков пациентов за последние девять месяцев рассказал The Wall Street Journal.

"Вплоть до психоза". Врачи назвали риски отклонений из-за частого использования чат-ботов

У пациентов появились симптомы психоза после длительных переписок с чат-ботами, в том числе с ChatGPT, сказали изданию опрошенные эксперты. Например, 26-летняя американка была уверена, что с помощью чат-бота общается с умершим братом. Поскольку чат-боты на основе ИИ вошли в нашу жизнь совсем недавно, формального определения психоза, спровоцированного именно при общении с роботами, нет. Однако врачи называют характерные признаки такого расстройства:

  • галлюцинации;
  • рассеянное мышление или речь;
  • устойчивые ложные убеждения, не имеющие широкого распространения.
  • Врачи предупреждают: чат-боты могут не только «закреплять» ошибочные мнения, но даже провоцировать бредовые идеи: пациенты верят, что совершили научный прорыв, стали центром правительственного заговора или были избраны Богом. Объяснение довольно простое: алгоритмы, по которым работают чат-боты, устроены таким образом, что диалог развивается в приятном для пользователя направлении — бот соглашается с мнением пользователя, поддерживает высказываемые им идеи и развивает фантазии, даже если они далеки от объективной реальности.

    «Сама технология, возможно, и не вызывает бред, но человек рассказывает компьютеру о своей реальности, а компьютер принимает это за истину и отражает обратно, таким образом, он становится соучастником в возникновении заблуждения», — цитирует издание психиатра из Калифорнийского университета, доктора Кита Саката. Доктор уже оказывал помощь 15 пациентам, получившим психоз после общения с ChatGPT.

    Впрочем, он не отрицает, что окончательные выводы делать преждевременно: чтобы установить связь между использованием чат-ботов и психозом, необходимы дополнительные исследования. В OpenAI, разработчике ChatGPT, изданию сообщили, что продолжают обучать чат-бот, чтобы он мог распознавать признаки психического или эмоционального расстройства и реагировать на них.

    Мнение

    А что говорят по этому поводу российские специалисты?

    Вера Никишина, профессор, директор Института клинической психологии и социальной работы Пироговского университета:

    — Трудно не согласиться с данными зарубежных исследований, которые показали, что чат-боты не решают проблему выявления психических нарушений у пользователей и оказания помощи в таких случаях. Эти роботы устроены так, в них заложены такие алгоритмы, что они общаются одинаково и с человеком с нарушенной психикой, и с тем, у кого никаких отклонений нет и состояние нормативное. Но здесь должна быть кардинальная разница. И она состоит в том, что не только психическое расстройство, но и пограничное состояние или предрасположенность к нему может усугубиться при общении с чат-ботом, который своими ответами провоцирует у человека факт принятия, что у него что-то не в порядке. В результате человек может все глубже и глубже погружаться в это состояние. Чат-бот, не распознавая ненормативность состояния (так как такие функции в него просто не заложены), во время диалога как бы «подыгрывает» пользователю и погружает человека в психическое нездоровье, доводя эти проявления до максимально выраженных. И чем больше времени человек проводит в диалогах с чат-ботом, тем очевиднее нарастают симптомы.

    По факту также могу сказать, что распространенность пограничных состояний увеличивается, и мотивация у людей с такими состояниями на диалог с чат-ботом, который их как будто понимает, тоже значительно больше. Значит, и активность таких людей и погружение их в эту синтетическую коммуникацию будет усиливать, может быть, на старте еще не выраженные патологические состояния, усиливать их и доводить до патологических. Так что в этом смысле много оснований для того, чтобы говорить о рисках использования ИИ-технологий людьми с нестабильной психикой.

    Как минимизировать риски?

    Для безопасного использования чат-ботов эксперты и исследователи советуют:

  • Критическое восприятие. Нужно помнить, что ИИ не обладает сознанием, эмоциями или пониманием. Его ответы — это обработка данных, а не истина.
  • Ограничение откровенности. Не стоит делиться с ботами глубоко личными, эмоциональными переживаниями и конфиденциальной информацией.
  • Проверка важных советов. Любые рекомендации, касающиеся здоровья, финансов или важных жизненных решений, необходимо перепроверять по авторитетным источникам и с реальными специалистами.
  • Контроль времени. Осознанно ограничивать время общения, особенно голосового, чтобы не допустить формирования зависимости.
  • Особый контроль для подростков: родителям важно обсуждать с детьми использование ИИ, развивать цифровую грамотность и следить за возможными изменениями в поведении (изоляция, ухудшение настроения, необщительность).
  • Источник: rg.ru

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *