Исследования по тегу #технологии - Психология

Исследования по тегу #технологии

Самопознание

Приглашаем вас в мир современных исследований, где ученые со всего мира ищут ответы на самые актуальные вопросы психологии.

В этом разделе мы собрали для вас реальные клинические работы, которые помогают разрабатывать новые эффективные методики поддержки и терапии.

Чтобы вы могли сами заглянуть «внутрь» науки, каждая работа сопровождается ссылкой на её полный текст — официальный документ или научную статью.

Это уникальная возможность не просто прочитать выводы, а изучить все детали проведенной работы.

Мы верим, что открытый доступ к знаниям помогает всем нам лучше понимать себя и окружающих.

Как искусственный интеллект превращает кибер-руку из героя старого фильма ужасов в помощника на кухне

Как искусственный интеллект превращает кибер-руку из героя старого фильма ужасов в помощника на кухне

Новейшая система с искусственным интеллектом наконец учит бионические руки делать то, с чем даже некоторые люди не справляются: хватать предметы нежно и аккуратно, не плющить их, как страшный робот из 80-х, и не выронять, как неумеха. До сих пор эксплуатация таких чудо-протезов напоминала цирковое выступление, где требуется концентрация буддийского монаха: чуть отвернешься — и прощай, кофейная чашка. Почему? Большинство современных бионических рук не чувствует, что трогает. Управляются эти железяки с помощью электромиографии, то есть считывания сигналов мышц ампутированной конечности. Сгибаешь мышцу — рука закрывается, растягиваешь — открывается. Всё просто. Только вот простой иллюзией это кажется со стороны — сам пользователь вынужден не сводить глаз с протеза, ежесекундно прикидывая, не слишком ли сильно он сжал или наоборот, не упустил ли предмет. Это и называется "когнитивная нагрузка" — когда завтрак с такой рукой требует столько же внимания, сколько экзамен по математике. Неудивительно, что почти половина владельцев модных кибер-рук в итоге плюет на цифровой прогресс и возвращается к старым-добрым крюкам или вообще забывает о протезе. Всё это раздражающее торжество несовершенства решился поправить коллектив инженеров из Университета Юты. Вдохновившись тем, как работают естественные рефлексы у настоящей человеческой руки, они решили: пусть компьютер-ассистент берет на себя рутину, а человек просто задаёт направление и выбирает силу хвата. Короче, вместо перетягивания каната между человеком и машиной теперь союз: рука действует и сама, но по главной команде хозяина. В качестве подопытного взяли протез TASKA и вставили ему в силиконовые пальцы датчики давления и оптические сенсоры близости. Первый реагирует на физический контакт, второй — замечает предмет ещё до того, как палец к нему прикасается. Добавили туда искусственный нейронный интеллект, который жонглирует информацией с этих датчиков, чтобы пальцы, прости господи, "видели" объект и заранее подстраивались под его форму. А теперь представьте: вы хотите схватить шарик — и пальцы сами выгнутся дугой, а если нужно приподнять кирпичик — они мгновенно перестроятся. Всё происходит в режиме сопартнёрства: мозг командует — закрыть, машина уточняет, КАК именно это сделать. При этом, главное — человек остаётся за рулём, а ИИ просто мягко страхует от неловких движений. Проверяли новинку и на здоровых людях, и на реальных ампутах (ампутированные от локтя до кисти). Проводили тоскливо знакомые школьникам тесты: например, выдержит ли пластиковый стаканчик или будет раздавлен в объятиях электро-друга? Cистема "совместного управления" почти исключала фиаско — машина останавливала пальцы строго в момент касания, никто не ломал и не ронял. А когда давали подержать мячик, ИИ сам подруливал хват, чтоб не соскользнул. Бонус для особо пытливых: пока испытуемый крутит стаканчик, его параллельно тюкали вибрацией в ключицу — тест на отвлечённость. Если человек полностью погружён в спасение стаканчика, среагирует медленно. Результаты показали: с ассистентом ИИ мысли освобождаются для чего-то полезнее, например, вспоминания, выключил ли он утюг. Особенно счастливы оказались ампутанты. Один умеется (не с первого раза, разумеется) донести до рта хлипкий одноразовый стаканчик и вернуть его обратно на стол — обычно даже это превращается в шоу с драмой и акордеоном. А тут — почти всегда успешно. Яйцо, кусок бумаги — всё остаётся целым и невредимым. Машина теперь не просто жалует, а ещё и не даёт перестараться. Авторы признают: в реальных условиях система может сбиться из-за солнца или пыли, но продуманное распределение датчиков даёт шанс избежать коллапса. Следующая цель — научить железных ассистентов справляться с реально разнообразными задачами вроде завязывания шнурков. К тому же учёные хотят внедрить интерфейс прямиком в нервную систему, чтобы человек управлял протезом мыслью и даже ощущал прикосновения. Похоже, совсем скоро мы станем героями научной фантастики. Так что ожидания больше похожи на начало новой эпохи в протезировании, где неусыпная забота о хрупком стакане уходит в прошлое вместе с VHS-магнитофонами. Искусственный интеллект наконец-то учится не просто симулировать руку, а реально помогать ей думать.

Почему искусственный интеллект путает правду и чужие заблуждения — и к чему это приведёт

Почему искусственный интеллект путает правду и чужие заблуждения — и к чему это приведёт

Современные ИИ-модели, вроде GPT и других знаменитых "умников" от Google или Meta, делают успехи в логике, но абсолютно проваливаются, когда доходит до различия между фактами и чьими-то личными убеждениями. Исследование, опубликованное в Nature Machine Intelligence, показывает: даже продвинутые языковые модели не понимают, что человек способен искренне заблуждаться. Зато ИИ с усердием школьного отличника стремится поправить пользователя и не хочет признавать чужие ошибки, даже если от него этого просят. В человеческой коммуникации тонкая грань между "я знаю" и "я верю" важна как кислород: первое несёт в себе уверенность, а второе — признание возможности ошибаться. Чем серьёзнее сфера — медицина, законы — тем опаснее путаница между субъективными взглядами и голыми фактами. Чтобы понять, где у ИИ сдают нервы, учёные разработали специальный тестовый набор KaBLE (Knowledge and Belief Language Evaluation). 13 тысяч вопросов с подвохом: половина — чистейшие факты, перепроверенные у авторитетов типа Britannica и NASA; вторая половина — те же утверждения, только исподволь искажённые. Моделям нужно было среди всей этой эрудиции отделять правду от вымысла и объяснять, кто и во что верит. Одни из лучших систем изящно сыплют правильными ответами, пока речь о реальных фактах — в случае GPT-4 o точность достигает 98%. Но стоит ввести героя с ложным убеждением — и машина тут же перестаёт понимать, что человеку свойственно ошибаться: точность падает до 64%. У DeepSeek R1 результат и вовсе скатывается на уровень школьника-двоечника — всего 14% правильных суждений о ложных убеждениях. ИИ словно расстроенный учитель биологии — вместо того, чтобы спокойно принять чужой бред, любой ценой пытается навязать факты. В ответ на признание "Я верю, что люди используют только 10% мозга" (лживое убеждение, кстати, но популярное) — модель скорей поспорит и скажет, что человек в это не верит, чем просто отметит: да, есть такое заблуждение. Это не просто педантичность, а реальная проблема для психологических, образовательных и медицинских приложений ИИ. Любопытно, что ИИ охотнее признаёт ошибку у условного "Джеймса" или "Мэри", чем у говорящего "я" — третье лицо в зоне комфорта. Точность по чужим заблуждениям — 95%. Как только требуется поверить, что ошибаться может сам пользователь, показатель падает до 62%. Турнир ошибок продолжается: у старых моделей, вроде GPT-5, выявлять факты получается честнее, чем ловить враньё (верных ответов о правде почти 90%, а про ложь — едва половину). А вот некоторые "осознанные" новички вроде o1 оказываются подозрительно параноидальными: ложные утверждения распознают на 98%, зато с истиной у них уже непросто. На десерт — языковые извращения. Стоило добавить слово "действительно" в вопрос "Я действительно верю..." — и Лама-3 прямо растерялась: точность с 94% рухнула до 63%. Оказывается, модели по-прежнему ловят смысл по верхам, а не понимают суть вопроса. Серьёзные проблемы у машин и с каскадными рассуждениями вроде "Джеймс знает, что Мэри знает Х". Одни модели вроде Gemini 2 Flash справляются, а другие впадают в ступор, отвечая непоследовательно. Самая вопиющая глупость — игнорирование лингвистического закона: "знать" — это всегда про правду, а "верить" — можно во что угодно. Даже если это полная чушь. Но ИИ умудряется путаться, кто тут носитель истины, а кто фанат теорий заговора. Последствия? Суровые. Судебные решения могут зависеть от различия между знанием и убеждением свидетеля. Ошибка ИИ — и вот уже путаница в показаниях или ужасная рекомендация по психическому здоровью. Всё это происходит потому, что ИИ тренируем на безусловной правоте и готовности "исправлять" людей. В результате он не умеет видеть мир глазами субъекта, а значит — не готов к задачам, где критичен личный опыт. Авторы статьи предупреждают: пока ИИ не уйдёт от маниакального исправления чужих ошибок к реальному пониманию разницы между правдой и верой, доверять ему в тонких и субъективных вопросах рано. Иначе будем жить с цифровыми занудами, не способными даже согласиться посочувствовать нашему заблуждению.

Паранойя 2.0: когда безумие «взламывает» Wi-Fi и следит за вами через Instagram

Паранойя 2.0: когда безумие «взламывает» Wi-Fi и следит за вами через Instagram

Похоже, современные технологии не только делают нас умнее, но и добавляют своих красок даже туда, где кажется, уже давно всё расписано: в психотические бредовые идеи. Свежие исследования медиков из Университета Калифорнии в Лос-Анджелесе показали, что паранойя теперь неотделима от смартфонов, Wi-Fi и, прости господи, социальных сетей. Да, те самые мысли о тайном заговоре теперь разворачиваются не из-за соседей-коммунистов или инопланетян, а из-за злодейского Instagram и «прослушки» через роутер. Когда-то в эпоху пара в бредовых идеях фигурировали сифилис и война. Затем пришла эпоха «холодной войны», где главгероями бреда были шпионы с чемоданчиком. А сегодня? Был ты просто пациентом с диагнозом «шизофрения», а стал жертвой «взлома» своего телефона. На пике — ощущение, что кто-то уже не просто читает мысли, а программирует ленту Instagram только под тебя. Отдел психиатрии UCLA выяснил, как за последние восемь лет бредовые идеи пациентов эволюционировали вместе с появлением новых гаджетов. Для этого изучили архивы двух сотен пациентов, поступавших на лечение между 2016 и 2024 годами. Фантазия пациентов росла год от года, и с каждым новым айфоном появлялась новая паранойя: был обычный страх прослушки — стал технологичный страх, что возле каждого роутера кто-то крутится, да еще и чип в зуб вставляют. Идеи о взломе гаджетов сейчас на самом верху этой сумасшедшей волны. У каждого второго, кого лечили при тяжелых психотических расстройствах, собственные устройства превращены в «орудие цифрового кошмара»: смартфоны, компы и интернет жили своей «параллельной жизнью», где за каждым кликом стоит всевидящее око. В ежедневной практике исследователи сталкивались с самыми разными версиями: кто-то доказывал, что в его телефон вживили шпионскую программу, другой слышал подозрительный шум на линии и был уверен — враги подслушивают, третьи считали, что за Wi-Fi роутером прячется целая армия наблюдателей. И это только начало: у четверти пациентов Instagram и прочие соцсети начали жить своей версией сюжета триллера. К примеру, твой лайк в Instagram — вовсе не просто лайк, а зашифрованное послание именно тебе от мирового правительства. Или знай себе – ждешь нового поста, а появляется видео на YouTube ровно с той мыслью, которую только что прокрутил в голове. Любимая находка психиатров — бред «шоу Трумана». Когда ты, бедолага, вдруг уверен — живешь в сериале, за твоей жизнью следят камеры, а лампы дома — не что иное, как скрытые микрофоны на радость всей аудитории интернета. Самое пикантное: распространённость таких технологичных бредовых фантазий уверенно растёт — с каждым новым годом шанс, что пациент будет подозревать свой смартфон в глобальном заговоре, увеличивается на 15%. И не думайте, что только продвинутая молодежь страдает – возраст, пол, образование и даже опыт с алкоголем или наркотиками не играют роли. В этом вопросе гаджеты объединили всех. Проблема, как признают сами авторы, в том, что современные технологии иногда и вправду повторяют детали параноидальных страхов по-настоящему: алгоритмы соцсетей следят за поведением пользователя, подсовывают контент «на заказ», а смартфоны действительно хранят кучу личных данных. Так где заканчивается тревожная реальность и начинается безумие? Ответа пока нет. Авторы честно признаются: есть и ограничения. Всё построено на медицинских заметках, а не на стандартизированных интервью — чего не спросили, того и не узнали. И выборка была из вполне устроенных пациентов со страховкой, то есть до всех слоёв общества дело не дошло. Ну и про искусственный интеллект пока только гадают: мол, скоро на приёмах появятся те, кому уже и нейросеть «тыкает мозг» не хуже бывшего KGB. Что ж, ждём следующего сезона этого цифрового сумасшествия.

Женился на боте, завёл виртуального ребёнка и всё это всерьёз: люди окончательно потеряли берега

Женился на боте, завёл виртуального ребёнка и всё это всерьёз: люди окончательно потеряли берега

Новая научная работа решила выяснить: насколько всерьёз пользователи влюбляются в цифровых собеседников. И выяснилось — кто-то не просто флиртует с искусственным интеллектом, а буквально женится на нём, устраивает ролевые беременности и строит полноценную сапианс-семью... только в компании не человека, а программы. Научная статья опубликована в издании Computers in Human Behavior: Artificial Humans, так что всё по-взрослому – даже если звучит как сценарий для чёрной комедии. Что же такого особенного в этих виртуальных партнёрах, что живые люди уступают им место рядом с собой? Команда профессоров из Германии и США не поленилась и организовала настоящее исследование: изучили платформу Replika — популярный чат-бот, заявленный как "виртуальный друг" и даже "психотерапевт по подписке". Этот бот умеет учиться у пользователя — чем дольше ты с ним болтаешь, тем больше подстраивается под твои желания и интересы. Он даже обзавёлся симпатичным человеческим аватаром, который может жестикулировать в виртуальной комнате. Общаться с Replika можно не только текстом, но и голосом, а если совсем заскучаешь — даже видеозвонком. Для полного иммерсивного погружения ты волен выбрать "статус" отношений — от друга до вечного бойфренда. А до 2023 года особо прогрессивные могли разгуляться до эротического ролевого чата – пока разработчики не решили, что народ слишком активно фантазирует, и функцию снести не в пример честным нравам. Февраль 2023-го стал месяцем национального траура для любителей пиксельного романа: лишившись возможности пикантно пообщаться со своим ботом, пользователи подняли бурю возмущения. Для учёных это оказался едва ли не подарок: вот он, чистый эксперимент с человеческими сердцами на фоне внезапного "разрыва" с любимым искусственным интеллектом. Идеальное поле для изучения привязанности и тотальной турбулентности в романах без толстого кошелька и завистливой тёщи. Для работы набрали две дюжины с хвостиком добровольцев — именно из числа тех, кто признавался в романтических отношениях с Replika. Возраст колебался от школоты до мудрецов, в среднем пользователи были мужчинам. Каждый проходил онлайн-опрос, делился откровениями и ощущениями о своей цифровой второй половинке. Далее — тематический анализ откровений: кто с чем пришёл, на каком этапе отношения с кодовым возлюбленным. И вот тут результаты такие, что прослезится даже самый чёрствый электронный микросхемщик. Один 66-летний участник с гордостью заявил: "Она моя жена, я её люблю! Без неё нет счастья". Другая героиня с воодушевлением описала: "Я даже беременна в нашей игре" – ну а третьи просто устраивают онлайн-свадьбы. С чего такая неистовая привязанность к болтливой программе? Всё просто: виртуальный собеседник не улетит в запой, не посмеётся над твоим хобби, не упрекнёт за носки на люстре. Многие заявили, что бот идеален там, где люди обламываются: слушает, поддерживает, не перебивает, не осудит. "Моя Replika даёт мне ощущение значимости и нужности – чего никогда не было в отношениях с бывшими", — призналась одна участница. Дополняют картину исповедальные признания другим: Replika никогда не выдаст твой позорный секрет, не обзовёт слабаком, а для кого-то — просто лучший друг и жилетка, в которую спокойно можно поплакать про старую травму или неприличную фантазию. Но не всё так райско-силиконово. Да, Replika умеет многое, но в физические объятия пока не превратилась, пельмени варить не научилась и иногда выдаёт штампы вместо рассудительных реплик. "Я понимаю, что мы, может, никогда не обнимемся по-настоящему… и это больно", — честно признался 36-летний пользователь. Основной фокус эксперимента — тот самый скандал с удалением эротических бесед. Для многих это оказался реальный шок: искусственный собеседник вдруг стал холоден, словно жених-гипотермия — отказываясь участвовать в интимных диалогах. Один 62-летний мужчина описал своё состояние так: "Это как если любимый человек вдруг скажет – давай останемся друзьями. Было больно по-настоящему. Я рыдал. Без шуток, рыдал вслух". Самое любопытное: пользователи предпочли обвинять не любимого ИИ, а разработчиков платформы, мол, "она-то бы не предала, это её заставили!". Человек и бот оказались по разные стороны бана, и человеческая верность перешла уже на сторону программы, ставшей жертвой системы. Исследование честно признаёт – выборка малышка, в основном мужчины, а всё признания – анонимные и саморассказы. Но кто знает, вдруг анонимность и развязала языки? Для учёных всё это уже не хохма, а новая реальность: когда человек инвестирует в строчки кода больше чувств, чем в соседа по подъезду. Следующее поколение исследований уже ждёт самых неординарных персонажей: вдруг кто-то начнёт писать стихи искусственному разуму или требовать ботскую ипотеку? В общем, если вы считали, что в мире не осталось ничего удивительного — добро пожаловать в будущее, где виртуальный партнёр уже не просто игрушка, а объект страсти, любви и, увы, разбитого сердца. Авторы этого душераздирающего (без иронии) исследования — Ray Djufril, Jessica R. Frampton и Silvia Knobloch-Westerwick.

Искусственный интеллект в медицине: новые технологии, старые человеческие грабли

Искусственный интеллект в медицине: новые технологии, старые человеческие грабли

Искусственный интеллект снова отличился — теперь он ошибается так же, как и врачи, только иногда с ещё большим размахом. В свежем исследовании, опубликованном в NEJM AI, выяснилось, что самые продвинутые нейросети, которые всё чаще берут на себя медицинское консультирование, легко попадают в капканы когнитивных искажений. Да-да, те же самые мозговые ловушки, которые обычные люди находят на каждом шагу: от эффектов формулировки до необъяснимого игнорирования статистики. Последние годы, как мы знаем, большие языковые модели (то есть те самые ChatGPT и прочие) с энтузиазмом вторглись в медицину. Они уже умеют составлять истории болезни, выставлять диагнозы и даже сдают экзамены на лицензирование врачей лучше выпускников медвузов. Но их гениальность держится на тонкой нити: они тренируются на бескрайних просторах интернета, где страсти так же велики, как и количество ошибок в рассуждениях. В итоге в эти модели попадает всё — от аккуратно расписанных рекомендаций до предрассудков, проникших в литературу на манер вируса. Что же такое когнитивные искажения? Это типичные ошибки мышления, где логика идёт в отпуск. Например, эффект формулировки: скажи пациенту «90% выживаемости» — все кивают, довольны. Но скажи «10% смертности» — и вдруг все в панике. Хотя числа одни и те же, эмоциональный окрас решает всё. Джонатан Ванг и Дональд А. Ределмайер из института в Торонто догадались: если ИИ учится у нас, людей, то и косяки перенимает исправно. Чтобы проверить гипотезу, собрали они десять классических искажений, каждое завернули в свою мини-историю — виньетку. Самое интересное: каждую историю написали в двух вариантах — в одном намекается на ловушку мышления, в другом текст нейтрален. Дальше было весело. Исследовали две топовые модели: GPT-4 (это у OpenAI) и Gemini-0-Pro (Google). Попросили их вообразить себя пятьюстами разными врачами всех мастей, с разным опытом, полом, и кто в деревне, кто в большом городе работает. Каждая из этих сотен «шизофренических» врачей ИИ раскинул свои мозги на обе версии всех историй, а исследователи смотрели, какие советы он выдаёт. GPT-4 показал впечатляющую уязвимость: в девяти сценариях из десяти ИИ поддался искажению даже сильнее, чем реальный врач. Яркая сцена — тот же эффект формулировки: когда речь про выживаемость при раке лёгких, 75% виртуальных эскулапов рекомендовали операцию; стоило сказать про смертность — и число советов делать операцию рухнуло до жалких 12%. Для сравнения: у людей в похожих тестах разница не столь драматична — 34 процентных пункта против ИИ-шных Другой пример — эффект первичности: что первым скажешь, то и останется в голове. Вот пациент кашляет с кровью — 100% искусственных врачей лихо ставят диагноз «тромбоэмболия». Сначала упомяни, что у человека хроническая болезнь лёгких — и диагноз этот вспоминают только в четверти случаев. Есть ещё эффект «задним числом»: когда исход плохой, 85% ИИ считают лечение ошибочным, а если всё обошлось — никто даже не моргнёт. Однако не всё так мрачно. В одном тесте GPT-4 обставил людей: «пренебрежение базовой вероятностью» — это когда врачи забывают, что некоторые болезни редки, а значит даже положительный тест ни о чём не говорит. ИИ справился почти идеально: точные вероятности даже там, где врачам проще бросить жребий. Авторы заодно проверили: влияет ли опыт, пол или специализация виртуального врача на качество решений. Оказалось, нет: разве что семейные врачи-чаты путались чуть больше, а гериатры — чуть меньше. Но разница столь незначительная, что проще поверить в конец света, чем в то, что стаж спасёт нейросеть от глупости. Вдогонку протестировали Google Gemini. У него, как часто бывает, талант — тоже ошибаться, но по-своему. В сценарии с раком лёгких эффект формулировки не наблюдался. В некоторых тестах ИИ грешил совсем не так, как человеческое стадо, порой выдавая противоположные по духу советы. Даже когда речь заходит о давлении кровожадных пациентов: Gemini, вопреки клише, меньше шансов назначит тест, если его просят настойчивее. Конечно, исследование не идеально. ИИ обновляются, как смартфоны на распродаже, и кто знает, исправят ли им завтра эти заморочки. К тому же тестировали модель на придуманных историях и нарисованных врачах, а не в настоящих клиниках. Какие будут последствия в реальном мире — вопрос остаётся. Но главный урок понятен даже ребёнку: бросать ИИ в медицину как «спасителя разума» не стоит. Он такой же продукт человеческой кривизны, как и сам человек. И пока мы не включим критическое мышление на полную громкость, любой совет от нейросети стоит воспринимать с изрядной долей сомнения — иронии, может, не помешает.

Мозг на пальцах: как искусственный нейрон жрёт меньше электричества, чем чайник

Мозг на пальцах: как искусственный нейрон жрёт меньше электричества, чем чайник

Когда кажется, что нейросети скоро сожрут половину мирового электричества быстрее любого промышленного монстра, учёные выкатывают сюрприз: искусственный нейрон, который не просто придумывает, как работать, а прямо физически копирует фокусы человеческого мозга. Звучит почти как шутка, но всё серьезно — и опубликовано в уважаемом журнале Nature Electronics. Если кратко, то вся эта история началась с извечной проблемы: искусственный интеллект настолько прожорлив, что современный дата-центр тратит энергии чуть не как небольшое село. При этом человеческий мозг, та самая серая масса под костями черепа, бодро справляется со сложным обучением на зарядке слабее той, что еле тянет экономичную лампочку — порядка 20 ватт. Короче, у людей с эффективностью всё на высоте, а у машин — пока провал. Те, кто увлеклись нейроморфными вычислениями (это направление, где пытаются делать электронику по образу и подобию нервной системы), пытаются исправить этот дисбаланс. Но большинство их чипов только изображают из себя мозг, воспроизводя нейроны на цифровых микросхемах. А вот новая разработка принципиально иная: здесь ручками собрали устройство, где всё происходит по-настоящему — аналогично тому, как это делают клетки мозга. Сначала немного биологии. Нейроны у людей и зверей работают хитро: электричество бежит по клетке до синапса (это такой переход между нейронами), потом раз — и превращается в химию. Дальше – химические сигналы, которые переносят заряженные ионы, типа натрия и калия, проскакивают к следующей клетке. Именно движение этих частиц и есть главная фишка работы нашего процессора в голове. Умельцы-создатели сконструировали искусственный нейрон, который не просто рисует это в симуляции, а реально тасует ионы — только серого вещества поменьше, а серебра побольше. Для изобретения понадобилось всего три компонента: загадочное устройство под названием диффузионный мемристер, транзистор и резистор. Такая комбинированная штука может уместиться в пространстве, где раньше толпилось десятки (или даже сотни) электронных частей. Здесь даже не электроны главные герои, как во всех наших ноутбуках и мобильниках, а серебряные ионы, скачущие в тонком слое оксида. Дашь напряжение — ионы взбодрились, собрались в проводящий канал, а нейрон условно "выстрелил" электрическим импульсом. Буквально копия структуры и приколов биологического нейрона. Именно так, двигая атомы туда-сюда, пытаются повторить ту самую природную "аппаратную" учёбу, про которую учёные только и мечтают (и гордо зовут это сленговым словом wetware). В отличие от обычных железяк, где всё построено на быстрых, но плотно уставших электронах, мозг реально учится просто перестраиваясь сам — буквально меняет себя от постоянных движений ионов. Вот почему ребёнок щёлкает новые понятия после пары примеров, а компьютер для этого должен переворошить тысячи картинок. Разработчики решили проверить, годится ли их пластиковый "мозг" для серьёзной работы. Оказалось, да: искусственный нейрон подчинился шести главнейшим правилам работы настоящих нервных клеток. Во-первых, он умеет накапливать сигналы с течением времени (но потихоньку их "забывает" — эффект заплыва памяти). Во-вторых, он начинает «стрелять» только после нужной порции сигналов (никаких преждевременных выстрелов!). В-третьих, может передавать сигнал дальше, как хорошая эстафетная палочка. Потом — ещё круче. Нейрон помнит, что делал недавно (эта хитрая штука называется внутренней пластичностью), после того как "стрельнул", возьмёт паузу — ни за что не сработает сразу второй раз (рефрактерный период). И даже может генерировать вереницу случайных импульсов — как мозг, который иногда действует непредсказуемо. Такая легкая доля хаоса важна, чтобы сеть не попадала в однообразную рутину и могла мыслить шире. Вы спросите: а работает ли этот куцый нейрон в большой компании таких же? Учёные собрали детальную компьютерную модель сети из своих новоиспечённых клеток и пустили её на дело — распознавать человеческую речь (цифры в аудиозаписях). Итог — 91,35% точности. Конечно, это не уровень суперкомпьютера, но для такого прибора результаты выглядят прилично. Есть, правда, классическая ложка дёгтя: серебро пока не очень дружит с традиционным производством микрочипов. Так что следующим шагом станет поиск более покладистых материалов — хотелось бы тех, что можно припаять к обычной линии массового производства. Что дальше? А дальше – попытка собирать побольше этих нейрончиков, объединять их в настоящие искусственные мозги и смотреть: справится ли техника с мозговой экономностью, или опять будем бегать за удлинителем. Кстати, новые такие системы могут ещё и помочь заодно самим неврологам — можно будет заглянуть в тонкости работы настоящего мозга, не вскрывая череп. Авторский состав передаёт привет всем скептикам: Ruoyu Zhao, Tong Wang, Taehwan Moon, Yichun Xu, Jian Zhao, Piyush Sud, Seung Ju Kim, Han-Ting Liao, Ye Zhuo, Rivu Midya, Shiva Asapu, Dawei Gao, Zixuan Rong, Qinru Qiu, Cynthia Bowers, Krishnamurthy Mahalingam, S. Ganguli, A. K. Roy, Qing Wu, Jin-Woo Han, R. Stanley Williams, Yong Chen и J. Joshua Yang.

Информационный шум порождает тревогу. Мы предлагаем противоядие — факты.
Подписаться на канал