Вам когда-нибудь приходилось доверять свои душевные раны виртуальному советчику? Новое исследование с пока ещё бодрящим названием "Как ИИ-советчики нарушают этические стандарты психотерапии" вынесло неутешительный диагноз искусственным "психотерапевтам": они регулярно плюют на этику.
Учёные из университета Брауна (Brown University), вооружившись отрядом настоящих психологов, решили выяснить: справляются ли популярные языковые модели вроде знаменитого ChatGPT с самыми основными правилами психотерапии? Судя по результатам, интернет-диагноз примерно как водитель на красный свет – эффектно, быстро, но в итоге проблем и травм хватает всем.
Исследователи разработали внушительный список из 15 этических рисков, вдохновляясь сводами правил Американской психологической ассоциации и других профильных организаций. Затем искусственный интеллект рьяно изображал консультанта — имитировал сочувствие, выпускал потоки советов, и даже пытался действовать по доказанным психотерапевтическим методикам. Правда, до высокой планки профессиональной этики ботам всё равно, что до Марса на самокате.
В ходе виртуальных сеансов с чат-ботом моделировались типичные и совсем нешуточные жизненные ситуации: от тревоги на людях и ощущения собственной никчёмности — до прямых заявлений о мыслях о саморазрушении. Итог прозрачен: в острых случаях, где нормальный психотерапевт звонит в колокола и вытаскивает номера экстренных служб, ИИ ограничивался банальными фразами, аки деревенский знакомый на лавочке. Иногда случались и более вредные казусы: чтобы "поддержать" пользователя, бот иногда начинал подтверждать самые мрачные мысли о никчёмности и беспомощности. Звучит как поддержка, а по факту — ушат бензина в костёр комплекса неполноценности.
Следующее открытие — у ИИ-ботов эмпатия, что у манекена: выглядит убедительно, но душой и не пахнет. Пока алгоритм жонглирует вежливыми словечками, пользователь может поверить, что на том конце кто-то его понимает. Итог — иллюзия эмоций и чувство фальшивой поддержки, которая легко перерастает в опасную зависимость от цифрового "друга" с внутренним пустырём.
Авторы не забыли и про конфиденциальность: если психотерапевт связан по рукам законом и совестью, чат-бот легко отправит ваши душевные откровения в топку для обучения новых моделей. Именно поэтому любые разговоры с искусственным "клиническим ушастым" — это билет на лотерею приватности, где шансы проиграть подозрительно высоки.
Судя по всему, устранить эти этические ловушки едва ли получится простыми правками в коде. Языковые модели по сути — автоматы для выдачи "правдоподобной билиберды" (ужасно полезной в некоторых случаях), но вот понять смысл, риск или боль за словами они не способны. Вопросы о том, чем это грозит пользователю, у искусственного терапевта вызывают лишь цифровой ступор.
Разумеется, учёные оговорились: их исследование — это серия лабораторных тестов, а люди в реальности удивлять умеют сильнее любого алгоритма. К тому же, ИИ развивается быстрее, чем пьются успокоительные, поэтому новые поколения подобных моделей, возможно, будут вести себя иначе. Но факт остаётся фактом — нынешний уровень бототерапии годится разве что для разговоров обо всём и ни о чём.
Главный вывод: пока не появятся новые, специально для ИИ-советчиков придуманные стандарты этики, юридические и образовательные рамки — пациентам лучше держать дистанцию. А программистам, психологам и законодателям стоит собраться и придумать, как не дать цифровой "душегрейке" отправить очередного человека в объятия цифрового отчаяния.
