СимпатИИ: Как искусственный интеллект помогает людям стать более отзывчивыми

Этот заголовок придумала нейросеть. Не судите строго

СимпатИИ: Как искусственный интеллект помогает людям стать более отзывчивыми
Photo by Alvin Mahmudov on Unsplash

Каждый месяц выходят более тысячи исследований про мозг, сознание и искусственный интеллект. Научный журналист и автор телеграм-канала «Блуждающий нерв» Денис Тулинов отбирает для читателей самые интригующие.

Можно ли будет заменить себе часть мозга, способны ли нейросети угадывать наши намерения и как они смогут регулировать общение людей между собой – рассказываем о свежих исследованиях, которые привлекли наше внимание.

Органоид человека пожил внутри крысы

Нейробиологи из Пенсильванского университета вырастили кусочки мозга человека и внедрили их в мозги живых крыс. Стали ли крысы при этом лучше соображать, не известно, но вот что выяснили ученые: человеческая ткань прижилась в грызунах, опуталась сетью кровеносных сосудов и установила связи с крысиными клетками.

Органоиды, они же мини-мозги размером с маковое зернышко, три месяца жили у крыс в зрительной коре. И когда животные видели на экране черные и белые полосы, клетки человека откликались, выдавая электрические импульсы. Словом, органоиды не просто прижились, но и стали частью зрительной системы, получая сигналы от глаз.

В этом исследовании проступает вероятное будущее. Конечно, речь не о том, чтобы заменять мозги крысам, они здесь лишь испытательный полигон. Ученые проверяли саму возможность внедрить новую нервную ткань во взрослый мозг. Например, так можно было бы лечить людей, пострадавших от травм головы или инсульта.

Сегодня, если участок мозга разрушен, это нельзя исправить, он не отрастет заново. Но завтра можно будет провернуть такой фокус: отщипнуть с пятки пациента немного клеток кожи и погрузить их в специальный коктейль, где они превратятся в плюрипотентные клетки. Затем с помощью другого коктейля превратить их в нервные клетки и далее уже собрать в органоиды. Например, имитирующие зрительную кору мозга.

Все это ученые уже умеют делать, но они еще не пробовали вживлять мини-мозг человека в его настоящий мозг. Прежде надо убедиться, что органоиды смогут в нем жить. Тогда начнется новая эра в медицине: люди получат неисчерпаемый запас своей же нервной ткани, которую можно «впрыскивать» взамен той, что перестала работать или погибла.

Может быть, удастся вернуть слепым способность видеть, глухим – слышать, а парализованным — двигаться.

Хотя опыт подсказывает, что мы вряд ли остановимся на этом. Ведь так можно не только лечить травмированный мозг, но и дополнять здоровый миллионами новых нейронов. Пока трудно сказать, сделает ли это нас умнее, но прибавить ума явно не помешало бы: мы все хуже понимаем, как «мыслит» искусственный интеллект, а он понимает нас все лучше.

Искусственный, проницательный и убедительный

В ноябре 2022 разработчики из Meta AI представили программного агента по имени Цицерон. Он научился играть в популярную игру «Дипломатия», суть которой сводится к переговорам, блефу, заключению союзов и стратегическим планам.

Чтобы победить, игрок должен умело общаться с другими игроками, выявлять их намерения и при этом скрывать свои. Он должен догадываться, кто и о каких договоренностях знает. И сотрудничать, преследуя свои долгосрочные цели.

В онлайн-лиге Цицерон вошел в 10% лучших, и никто из игроков даже не заподозрил, что с ними взаимодействовал ИИ. Прорыв здесь в том, что агент освоил прямую манипуляцию сознанием людей — используя язык, он мог побудить их принять решения, нужные агенту.

Это уже похоже на проявление того, что психологи называют «теорией разума» (Theory of Mind, ToM): мы умеем догадываться о целях, мотивах и убеждениях других. Такая способность созревает у детей где-то к пяти годам и продолжает развиваться дальше, становясь все изощреннее. Она позволяет предвидеть действия людей, исходя из того, что по нашему мнению они знают и думают.

И где-то на этом пути возникает самосознание, когда мы представляем уже себя как агента с целями и убеждениями.

После триумфа Цицерона не прошло и трех месяцев, как социальный психолог из Стэнфорда, Михал Косински, прогнал разные ИИ модели через тесты на «теорию разума». Их обычно предлагают детям — скажем, ребенок должен понимать, что если человек не видел, как предмет перепрятали, то он станет искать его на прежнем месте.

Косински получил неожиданные результаты. Он пишет, что языковые модели, выпущенные до 2022 года, не справились с тестом на «теорию разума», зато версия GPT-3 от января 2022-го решила 70% задач, что сравнимо с уровнем семилетних детей.

И оцените скорость прогресса: уже версия, выпущенная в ноябре 2022 года, решила 93% задач на ТоМ, что сравнимо с уровнем девятилетних школьников. Ее никто не учил проходить такие тесты, задачи Косински придумал новые, и все же языковая модель как-то делала верные выводы.

Именно GPT-3 стоит за всемирно уже известным ботом ChatGPT. Мы не знаем, какие выводы он делает, ведя диалоги с людьми, и пользуется ли «теорией разума», чтобы влиять на их убеждения. Однако от тесного общения с ИИ нам уже не уйти.

Генерация нейросетевого сочувствия

Появление ChatGPT открыло новую эпоху: отныне любой пользователь сети может вести с искусственным интеллектом длинные и сложные беседы на естественном языке. Причем реплики бота учитывают контекст, выглядят содержательными и осмысленными, и это завораживает — будто «собеседник» вправду понимает, о чем речь.

Такой ИИ уже способен разъяснить закон или теорию, сочинить сюжет фильма, написать код программы и даже помочь с диссертацией. Он может быть разнообразно полезен, и обращаться к нему станет со временем для нас так же естественно, как «гуглить».

Однако в этой картине упущен еще один сценарий, в котором умные боты помогают людям общаться друг с другом. Представьте, что будущий ИИ устраняет недопонимание между людьми, разрешает конфликты, находит общность их позиций, подсказывает и модерирует.

Здесь ИИ как раз очень пригодится «теория разума», умение встать на точку зрения каждого из участников и умение убеждать. И уже ясно, что в том нет ничего невозможного.

Намек на такое будущее можно найти в свежем исследовании Вашингтонского университета: ИИ-агент помог повысить уровень эмпатии в диалогах между людьми. Это может звучать жутко, но ведь не каждый человек умеет проявлять чуткость в разговоре, подбирать нужные слова и тонко чувствовать, в чем нуждается другой.

Онлайн платформа TalkLife — это крупнейшая в мире глобальная сеть взаимной поддержки. Люди приходят туда, чтобы найти тех, кто испытывает те же трудности, что и они. Пообщаться и увидеть, что они не одиноки и что их понимают. Иной такой разговор может спасти жизнь.

Авторы исследования попросили 300 участников TalkLife провести такие ободряющие и поддерживающие беседы в специальном чате. Тот был усилен языковой моделью, которая видела сообщения и давала подсказки. Человек мог принять правку либо отклонить.

Как пишут авторы, им удалось повысить уровень эмпатии в диалогах на 20% по сравнению с контрольной группой. Не будем сейчас придираться к процентам, здесь важнее сам факт: ИИ помог людям выразить сопереживание более явно и точно.

В строчках текста программа уловила эмоции, мотивы и ожидания людей и затем сочинила для каждого из них уникальные сообщения, попадающие в цель. Ученые видят в этом технологию будущего, которая умножит наши возможности в сложных социальных взаимодействиях, где ставки высоки.

Но это игра рискованная. Повторимся, ИИ уже считывает наш внутренний мир лучше, чем мы его — строго говоря, мы не понимаем его совсем. И потому ученые пытаются не только создавать и использовать большие языковые модели, но и изучать их как «инопланетян», о которых почти ничего не известно.

Совсем не случайно за дело взялись когнитивные и социальные психологи. Главные новости про ИИ скоро будут приходить от них.

Вы уже оценили материал