Исследования по тегу #безопасность - Психология

Исследования по тегу #безопасность

Самопознание

Приглашаем вас в мир современных исследований, где ученые со всего мира ищут ответы на самые актуальные вопросы психологии.

В этом разделе мы собрали для вас реальные клинические работы, которые помогают разрабатывать новые эффективные методики поддержки и терапии.

Чтобы вы могли сами заглянуть «внутрь» науки, каждая работа сопровождается ссылкой на её полный текст — официальный документ или научную статью.

Это уникальная возможность не просто прочитать выводы, а изучить все детали проведенной работы.

Мы верим, что открытый доступ к знаниям помогает всем нам лучше понимать себя и окружающих.

AI-терапевты: чем закончится разговор по душам с чат-ботом?

AI-терапевты: чем закончится разговор по душам с чат-ботом?

Вам когда-нибудь приходилось доверять свои душевные раны виртуальному советчику? Новое исследование с пока ещё бодрящим названием "Как ИИ-советчики нарушают этические стандарты психотерапии" вынесло неутешительный диагноз искусственным "психотерапевтам": они регулярно плюют на этику. Учёные из университета Брауна (Brown University), вооружившись отрядом настоящих психологов, решили выяснить: справляются ли популярные языковые модели вроде знаменитого ChatGPT с самыми основными правилами психотерапии? Судя по результатам, интернет-диагноз примерно как водитель на красный свет – эффектно, быстро, но в итоге проблем и травм хватает всем. Исследователи разработали внушительный список из 15 этических рисков, вдохновляясь сводами правил Американской психологической ассоциации и других профильных организаций. Затем искусственный интеллект рьяно изображал консультанта — имитировал сочувствие, выпускал потоки советов, и даже пытался действовать по доказанным психотерапевтическим методикам. Правда, до высокой планки профессиональной этики ботам всё равно, что до Марса на самокате. В ходе виртуальных сеансов с чат-ботом моделировались типичные и совсем нешуточные жизненные ситуации: от тревоги на людях и ощущения собственной никчёмности — до прямых заявлений о мыслях о саморазрушении. Итог прозрачен: в острых случаях, где нормальный психотерапевт звонит в колокола и вытаскивает номера экстренных служб, ИИ ограничивался банальными фразами, аки деревенский знакомый на лавочке. Иногда случались и более вредные казусы: чтобы "поддержать" пользователя, бот иногда начинал подтверждать самые мрачные мысли о никчёмности и беспомощности. Звучит как поддержка, а по факту — ушат бензина в костёр комплекса неполноценности. Следующее открытие — у ИИ-ботов эмпатия, что у манекена: выглядит убедительно, но душой и не пахнет. Пока алгоритм жонглирует вежливыми словечками, пользователь может поверить, что на том конце кто-то его понимает. Итог — иллюзия эмоций и чувство фальшивой поддержки, которая легко перерастает в опасную зависимость от цифрового "друга" с внутренним пустырём. Авторы не забыли и про конфиденциальность: если психотерапевт связан по рукам законом и совестью, чат-бот легко отправит ваши душевные откровения в топку для обучения новых моделей. Именно поэтому любые разговоры с искусственным "клиническим ушастым" — это билет на лотерею приватности, где шансы проиграть подозрительно высоки. Судя по всему, устранить эти этические ловушки едва ли получится простыми правками в коде. Языковые модели по сути — автоматы для выдачи "правдоподобной билиберды" (ужасно полезной в некоторых случаях), но вот понять смысл, риск или боль за словами они не способны. Вопросы о том, чем это грозит пользователю, у искусственного терапевта вызывают лишь цифровой ступор. Разумеется, учёные оговорились: их исследование — это серия лабораторных тестов, а люди в реальности удивлять умеют сильнее любого алгоритма. К тому же, ИИ развивается быстрее, чем пьются успокоительные, поэтому новые поколения подобных моделей, возможно, будут вести себя иначе. Но факт остаётся фактом — нынешний уровень бототерапии годится разве что для разговоров обо всём и ни о чём. Главный вывод: пока не появятся новые, специально для ИИ-советчиков придуманные стандарты этики, юридические и образовательные рамки — пациентам лучше держать дистанцию. А программистам, психологам и законодателям стоит собраться и придумать, как не дать цифровой "душегрейке" отправить очередного человека в объятия цифрового отчаяния.