Люди стали обращаться к ChatGPT вместо психотерапевтов — последствия могут быть непредсказуемыми

Некоторые пользователи интернета начали общаться с основанным на алгоритмах искусственного интеллекта (ИИ) чат-ботом ChatGPT вместо походов к психотерапевту. Эксперты предупреждают, что последствия такой практики могут быть непредсказуемыми: есть вопросы к конфиденциальности сервиса и этическим принципам ИИ.

Люди стали обращаться к ChatGPT вместо психотерапевтов — последствия могут быть непредсказуемыми

О своём опыте общения с ИИ агентству Bloomberg рассказал Майло Ван Слик (Milo Van Slyck), работающий помощником юриста в Чарльстоне (США, шт. Южная Каролина) — у него нестандартный подход к собственной идентичности, который не могут принять его родители, придерживающиеся характерных для южного штата традиционных ценностей. Пропустив встречу со своим психотерапевтом в начале апреля, Ван Слик решил обратиться к ChatGPT и обнаружил, что общение с ИИ дало ему ощущение психологического комфорта.

«Когда снова увидитесь с родителями, важно будет расставить приоритеты в ваших потребностях и благополучии. Подумайте, что вам нужно, чтобы ощущать комфорт и безопасность в их присутствии. Это нормально — устанавливать границы того, сколько времени вы с ними проводите, каких тем не следует касаться, и как они относятся к вам и вашей идентичности», — такой совет ChatGPT дал «пациенту», у которого назрел конфликт с родителями.

В последующие дни у Ван Слика выработалась привычка обращаться к ИИ, когда возникает потребность выговориться, а ответы ChatGPT стали давать ему психологическую разрядку. Ранее он ощущал себя обузой для других людей и даже психотерапевта, зато в общении с чат-ботом он себя навязчивым уже не чувствовал.

Новое поколение чат-ботов только начинает развиваться, и пока рано говорить о том, сохранится ли их популярность, когда исчезнет эффект новизны. Сейчас ими пользуются для поиска информации в интернете, написания домашних заданий, программного кода и даже бронирования столиков в ресторанах. Замена психотерапевта — идея далеко не новая. Один из первых чат-ботов Eliza был создан ещё в шестидесятые годы прошлого века профессором Джозефом Вайценбаумом (Joseph Weizenbaum) как раз как замена психотерапевту. Подобные проекты существуют и сейчас: чат-боты не устают, и общение с ними обходится дешевле услуг настоящих специалистов.

Люди стали обращаться к ChatGPT вместо психотерапевтов — последствия могут быть непредсказуемыми

Но существует и потенциальная угроза, исходящая от таких решений. Мощные платформы общего назначения, в том числе OpenAI ChatGPT, Google Bard и Microsoft Bing Chat, основаны на больших языковых моделях, и предназначены они лишь для того, чтобы генерировать убедительно звучащую информацию. Для психотерапии они не предназначаются, а их алгоритмы не программировались в соответствии с этическими и юридическими принципами, которых придерживаются психотерапевты. Они не могут отслеживать, что «пациенты» им говорят от сеанса к сеансу, хотя от живых специалистов такого не потерпел бы никто.

Эксперты признают, что ChatGPT — действительно хороший собеседник, хотя специалиста по психическому здоровью машина заменить пока не может. С этим согласился и сам чат-бот, когда ему рассказали о публикации в Twitter, автор которой назвал ChatGPT более эффективным, чем живого психотерапевта. «Важно помнить, что онлайн-ресурсы могут быть полезными, но обращений за профессиональной помощью они не заменяют, если речь идёт о травме или проблемах с психическим здоровьем. Если у вас есть непосредственные вопросы или проблемы, по которым вы бы хотели получить от меня информацию или ответы, я сделаю всё возможное, чтобы вам помочь», — заявил ИИ.

Маргарет Митчелл (Margaret Mitchell), главный специалист по вопросам этики в компании Hugging Face, специализирующейся в разработке и поддержке ИИ-моделей, считает, что подобные чат-боты можно использовать для помощи людям, которые звонят на линии помощи в кризисных ситуациях, однако чрезмерное к ним доверие может усугубить страдания людей, испытывающих проблемы, причём эти люди могут даже не понять происходящего. Она также указала на возможные проблемы конфиденциальности: OpenAI оставила за собой право просматривать разговоры ChatGPT с пользователями для последующего обучения модели. И людям, которые делятся личными проблемами с ИИ, это может не понравиться.

Эмад Мостак (Emad Mostaque), основатель и глава компании Stability AI, ответственной за генератор изображений Stable Diffusion, напротив, считает чат-бот на основе модели GPT-4 «лучшим психотерапевтом». Он, по его словам, разработал некую систему команд, которые переводят систему в режим психотерапии, и теперь беседует с ChatGPT на самые различные темы, в том числе о способах справляться со стрессами, связанными с управлением молодой компанией — особенно если ей руководит человек, открыто говорящий о своих нейродивергенции, синдроме дефицита внимания и гиперактивности. Он не считает, что чат-бот может стать заменой психотерапевту, но признаёт, что они могут оказаться полезными, когда нужно поговорить, а другого собеседника в пределах досягаемости нет.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *