Rusbase
Реально ли чтение мыслей и как оно может изменить нашу жизнь
30 сентября 2019



Чтение мыслей или телепатия — способность передавать и принимать мысли, эмоции и образы на расстоянии, без сторонних средств, например, телефонов. Это давняя мечта человечества, о которой снимают фильмы и пишут книги. Но с 1882 года, когда термин «телепатия» был введен в Британском обществе психических исследований, ни один опыт не смог доказать, что это реализуемо. Поэтому мы считаем, что телепатии не существует.

«Чтение мыслей» возможно только благодаря науке и ее последним технологическим достижениям. Ученые разрабатывают устройства, которые способны считывать сигналы мозга и преобразовывать их в звуки и картинки, диагностировать заболевания и возвращать зрение и речь. Мы разобрались, как чтение мыслей изменит нашу жизнь, при чем тут нейросети и Илон Маск и какие разработки есть на российском рынке.
Ментализм
Применяя хитрые приемы, уловки и харизму, можно добиться эффекта «чтения мыслей». Этим давно пользуются фокусники или артисты, которых называют «менталистами». Один из самых известных — Дэвид Блейн. Он хоронил себя живьем, замораживал и «разгадывал» мысли людей на улицах. В СССР широкой популярностью пользовались выступления Вольфа Мессинга, в которых он находил спрятанные добровольцами предметы. Сам Мессинг описывал секрет своих фокусов как «мышечное чтение». Он считывал микродвижения человека и понимал, в какую сторону направлено его внимание.

Менталисты не могут понять чувства, угадать образ или воспоминание. Все представления сводятся к угадыванию карт, цифр или заранее спрятанных предметов, и ничего общего с телепатией не имеют. Ближе к этому подошли психологи, которые способны распознать эмоции, настроения или понять, что человек лжет.
Психология
На канале FOX с 2009 по 2011 шел сериал «Обмани меня». По сюжету доктор Лайтман и его команда помогали в расследованиях, находя правду через анализ поведения преступников. Прототип главного героя — доктор Пол Экман. Он 30 лет занимается изучением лжи, работает с политиками, службами безопасности крупных компаний, полицией и ФБР.

Методика Экмана признана научным сообществом и основана на распознавании мимики и жестов. Экман проводил исследования пациентов больниц в США, посетил Японию, Аргентину, Бразилию, а также долго изучал аборигенов Папуа-Новая Гвинея. Везде он снимал выражения лиц людей на фото и видеопленку. Позже он изучал отснятый материал и пришел к выводу, что выражения лиц и жесты универсальны и указывают на эмоции и чувства человека.

После этого Экман разработал таксономию мышц лица. Это каталог движений мимических мышц — 43 движения (Action Units). Сочетания этих движений дают набор выражений. Суммарно таких выражений около 3000, каждое из которых соответствует различным эмоциям и чувствам. Все это Экман назвал «Системой кодирования лицевых движений» (Face Action Coding System, или FACS).
Источник: Fast Company
Систему Экмана используют для определения эмоциональных состояний, для диагностики шизофрении, депрессии и других заболеваний. Её применяют даже для анимации персонажей в фильмах. Например, Pixar воспользовалась каталогом, чтобы отрисовать эмоции персонажей в «Истории игрушек» и «Шреке».

Распознавание мимики и жестов — довольно точный метод определения лжи. Если человек говорит правду, то эмоции соответствуют словам. Если человек врет, то между словами и тем, что человек показывает лицом и руками, есть несоответствие. Например, преступник сообщает, что относился к жертве нейтрально, но на лице появляются признаки гнева, злости, ненависти, самодовольства. Через микроэмоции на лице и движения рук можно понять, что человек чувствует.
Чтение мыслей как считывание сигналов мозга
Мозг отвечает за все, что с нами происходит: дыхание, пищеварение, движения и память. Он же ответственен за наши мысли и эмоции. Мысли и чувства — это электрические и химические сигналы, которые зарождаются в разных отделах мозга. Если не углубляться в структуру и говорить упрощенно, то, например, за сочувствие и сопереживания отвечает лобная доля, за вину — височная, а за страх миндалевидное тело.

Конечно, эмоции и чувства не зависят от работы лишь одной части мозга. Это сложная система, в которую включаются доли, кора, симпатическая система и другие отделы друг за другом и вместе. Хорошо и детально увидеть работу мозга позволяет магнитно-резонансная томография — МРТ.

Например, в книге Дика Свааба «Мы — это наш мозг» приводятся примеры, когда с помощью МРТ можно было опосредованно понять, о чем думает человек. Как это происходит? Во время процедуры МРТ пациенту показываются картинки, музыка, слова, цифры, фотографии людей, и регистрируется активность определенных долей. После сотен экспериментов на разных пациентах становится понятно, какие области и структуры мозга включаются и отвечают за разные образы и понятия.
Искусственный интеллект, МРТ и Big Data
На сегодняшний день накопилось много информации с МРТ-исследований: активность отделов и систем в ответ на разные раздражители, данные о деятельности мозга больных шизофренией, деменцией и другими заболеваниями, функционирование мозга при разных видах деятельности и состояниях, например, медитации. Все эти данные — это Big Data, которую можно обработать, чтобы понять, как человек мыслит.
Университет Карнеги-Меллон в Питтсбурге
Примерно так думали ученые из Университета Карнеги-Меллон в Питтсбурге (США). Они собрали разные данные МРТ-исследований и разработали алгоритм глубокого обучения нейронной сети для их анализа. Нейросеть интерпретирует сигналы мозга и выстраивает цепочку его активностей во время создания мыслей.

Мозг использует шаблоны в составе более сложных мыслительных реакций, чтобы выполнять свои задачи с наименьшими затратами энергии. Каждый раз, когда мы думаем о большом красном яблоке, в мозгу возникает одна и та же реакция — шаблон нейронных сетей и других структур. Ученые загрузили данные о реакциях и их причинах в алгоритм, и на выходе получили каталог из 240 реакций мозга на отдельных людей, места или физические действия. Нейросеть научилась предсказывать, о чем думает человек, по показаниям МРТ. Точность предсказания составила 87%. Самое удивительное, что алгоритм смог провести операции в обратном порядке — когда получал данные о человеческом действии, создавал снимок МРТ.
Университет Киото
Американские ученые не одиноки, похожие исследования ведут их коллеги из Японии. В Университете Киото команда ученых обучила искусственный интеллект визуализировать мысли по данным МРТ. Японцы подошли к исследованию с той же идеей, что и команда Университета Карнеги-Меллон. В течение 10 месяцев они показывали трем испытуемым фотографии людей и животных, фигуры и буквы. За это время у испытуемых создавалась устойчивая реакция на объекты. Во время показа картинок учёные снимали показатели мозговой деятельности с помощью МРТ. Позже испытуемых просили думать об этих картинках, также снимая показатели.

Исследователи собрали все данные и обучили на них нейросеть, которая научилась создавать буквы и даже картинки по результатам МРТ, которые ей скармливают. Точность воспроизведения довольно высокая. Некоторые изображения образов похожи на набор пикселей, а некоторые — как слегка размытая фотография оригинальной картинки.
Примеры изображений, сгенерированных нейросетью от команды учёных из университета Киото
Источник: CNBC
Как применить это в реальной жизни? На рынке уже существуют устройства, которые позволяют людям с проблемами зрения частично его вернуть. Например, Argus II от компании Second Sight. Это внешняя камера, видеопроцессор и набор электродов. Камера крепится к очкам, электроды вживляются в сетчатку и соединяются с камерой. Изображение с камеры поступает на встроенный видеопроцессор. Он обрабатывает сигнал и подает его на электроды для стимуляции оставшихся здоровых клеток сетчатки, которые создают изображение.

Протез помогает только людям с дистрофией сетчатки, полностью слепые не смогут им воспользоваться. Но это можно изменить, если доработать алгоритмы, над которыми работают в университетах Карнеги-Меллон и Киото, и внедрить их в устройства наподобие Argus II. Камера будет фиксировать изображение, отправлять на видеопроцессор, а алгоритм сможет стимулировать определенные участки мозга, чтобы он воспроизвел картинку.

Для этого также понадобится внедрение в мозг нейроимплантов.
Вживляемые устройства
В Калифорнийском Университете в Сан-Франциско ученые разработали нейроимплант и ПО, которые переводят мозговую активность человека в слова и предложения.

Имплант внедряют в мозг, в речевые отделы. Прибор фиксирует мозговую активность и передает её в программу. На выходе получается синтезированная речь. Для моделирования речи разработчики импланта исследовали активность мозга десятков подопытных и сравнивали данные с движениями голосового тракта во время этого. В результате получилась виртуальная модель речевого аппарата каждого пациента. Смоделированные движения перевели в звуки.

За анализ данных и синтезирование речи отвечает нейронная сеть. Именно она расшифровывает команды мозга и преобразует их в голос. Исследователи использовали два алгоритма машинного обучения. Первый — декодер, который преобразует шаблоны мозговой активности, создаваемые во время речи, в движения виртуального голосового тракта. Второй — синтезатор, который превращает эти движения в синтетический голос пациента. Важно то, что все это происходит в реальном времени почти без задержек.
Приборы и программное обеспечение для «считывания мыслей» образуют вместе технологию Brain-Computer Interface (BCI) — нейроинтерфейсы. Посредством BCI мозг и электронные устройства обмениваются информацией.

Подобное устройство открывает большие перспективы. Можно создавать речевые аппараты для людей, которые не могут говорить, пациентов после инсульта или с параличем тела.
«Технология перевода мозговой активности в речь реальна и может выполнять то, что в научной фантастике называлось "чтением мысли". Современная наука позволяет буквально силой мысли управлять через компьютер манипуляторами и писать отдельные слова тем, кто лишен возможности говорить, посредством BCI. В этом направлении есть прогресс, но до массовости пока далеко».
Артур Биктимиров, врач-нейрохирург, Медицинский центр ДВФУ.
Ученые объединили знания в области нейробиологии, лингвистики и машинного обучения, чтобы помочь людям с нарушениям речи. Прибор, который они называют «нейронный декодер», поможет тем, кто пострадал от черепно-мозговых травм, инсультов и рассеянного склероза. Частые последствия этих болезней — неспособность говорить. Сейчас в этом помогают громоздкие устройства, которые считывают движения глаз. С новой разработкой такие устройства будут не нужны.

В этом направлении работает также Илон Маск. В 2017 году он создал стартап Neuralink. Недавно он представил технологию, над которой стартап работал. Это устройство, которое вживляет в мозг гибкие «нити» в четыре раза тоньше волоса. Нити считывают сигналы с нейронов и передают в специальный чип. С него данные можно передать дальше по обычному протоколу USB-C. Если говорить максимально упрощенно, то разработка Илона Маска — это «USB-кабель и флешка» для считывания и хранения информации из мозга. Для вживления нитей требуется просверлить отверстие в черепе, а сами нити внедряются особым устройством, которое похоже на швейную машинку.

Разработку тестировали на крысах и обезьянах, а к людям приступят в 2020 году. Если все пройдет удачно, то «нити» помогут парализованным людям работать с компьютерами, телефонами и другой техникой «силой мысли». В идеальном сценарии изобретение станет новым средством связи — без телефонов, от головы к голове. Вот где настоящее чтение и передача мыслей на расстоянии.
«Это прозвучит странно, но в итоге мы придем к симбиозу с искусственным интеллектом. Не принудительному — каждый сможет выбирать по желанию. Я думаю, речь идет об изменении в масштабах цивилизации».

Илон Маск

Фото: Digital Trends
Похожая разработка от уже знакомого университета Карнеги-Меллон — проект нейроинтерфейса в виде носимого устройства для регистрации активности мозга и его стимуляции. Устройство будет способно считывать сигналы нейронов без внедрения в мозг. Прибор можно будет использовать для лечения эпилепсии и болезней Альцгеймера и Паркинсона. Команда проекта уже получила грант в $19 миллионов на развитие.
Носимые нейроинтерфейсы
Над похожими целями с 2017 года работают в Facebook. В компании разрабатывают проекты, которые позволят переводить мысли в текст и управлять музыкой. Первый — это гарнитура, которое надевается на голову и считывает сигналы, подобно ЭКГ. Не используя клавиатуру, пользователи смогут печатать сообщения, блуждать по страницам в Facebook. Возможно в системе будут участвовать также AR-очки.

Второй — система, которые работает как МРТ: прослушивают мозг, используя волоконную оптику или лазеры для измерения изменений кровотока. Сейчас технология тестируется на добровольцах. Компания планирует представить прототип к концу года.

Еще один проект нейроинтерфейса — AlterEgo от MIT. Это устройство, которое крепится на челюсти и помогает человеку общаться с машинами без голоса или ввода команд другими способами. Человек произносит команды про себя, а прибор считывает их посредством костной проводимости — похоже на чтение «про себя». Прибор распознаёт монолог и передает команды другим устройствам.
Похожее устройство, которое использует движения глаз — «Нейрочат». Это связка из нейрогарнитуры, которая крепится на голову, и ПО. Система гарнитуры отслеживает электрические сигналы мозга при движении глаз и набирает текст на экране компьютера. Пользователь концентрируется на букве или символе, мысленно выбирает объект и набирает слова.

«Нейрочат» разработан в России, уже получил патент и прошёл клинические испытания. Коммуникационная система компании даёт возможность людям с такими диагнозами как ДЦП, БАС, инсульт, рассеянный склероз, а также и различными нейротравмами общаться в сети с родными, друзьями, медицинским персоналом и другими людьми. По данным компании, сейчас системой пользуются уже более 300 человек и 29 медицинских и реабилитационных центров по всей России.
Нейрочат
Источник: Сколково
Над подобными устройствами также работают в российском Институте электронных управляющих машин им. И. С. Брука.
«Окулографический интерфейс»
Это устройство в чём-то похоже на «Нейрочат» — оно отслеживает движение глаз и понимает, на что смотрит человек. В аппарат встроено программное обеспечение, которое знает, что человек хочет сделать дальше: передвинуть объект, напечатать текст или закрыть вкладку. Разработка поможет в реабилитации инвалидов с проблемами движения и болезнями вроде ДЦП.
«Неинвазивный интерфейс "мозг-компьютер"»
У него те же цели, что и у предыдущего проекта, но работает он по другим принципам. С помощью сухих электродов прибор регистрирует электрические сигналы мозга и переводит их в команды компьютеру или другому устройству. Прибор имеет вид наушников, маленький вес и высокую точность регистрации. В перспективе устройство можно использовать с экзоскелетами, что позволит полностью или частично парализованным людям ходить.
Чтение мыслей реально, но это не главное
Разработки в области «чтения мыслей» открывают новые возможности в медицине. С помощью имплантов и алгоритмов машинного обучения люди с проблемами речи смогут говорить, парализованные люди — набирать текст в телефоне и компьютере, чтобы общаться. Настроив связь нейроинтерфейса с внешними устройствами, пожилые и лежачие больные смогут управлять бытовыми приборами, звонить родным и вызывать помощь при необходимости.

Связка нейроинтерфейс-бионический протез будет работать точнее и быстрее. Сейчас такие протезы считывают электрический потенциал мышц, которые сохранились на ампутированной конечности. Считывание сигналов мозга — гораздо более точный и надежный способ для управления протезами.

Более того, также, как электрический Тесла с автопилотом в перспективе может изменить культуру вождения, правила дорожного движения и саму индустрию автомобилестроения, нейроинтерфейсы могут изменить индустрию связи и формат нашего общения.
Широкое принятие и распространение нейроинтерфейсов будет зависеть от того, удастся ли разработать неинвазивное устройство, позволяющее считывать с мозга сигналы того количества и качества, которое достаточно для выполнения каких-то специфичных или даже повседневных задач. Мало кто захочет, условно говоря, делать себе дырку в голове, чтобы управлять своим компьютером без мышки и клавиатуры. То есть, если мы хотим, чтобы нейроинтерфейсы заменили нам наши органы – пальцы, руки, ноги, глаза, уши – они должны научиться получать и правильно и быстро обрабатывать такое же колоссальное количество нервной информации, что и наша нервная система.

Насколько это удастся сделать, не прибегая к вживлению устройства в тело, пока неясно. Если не удастся, то немедицинское применение нейроинтерфейсов ограничится стандартными, уже существующими направлениями, вроде отслеживания фаз сна или продуктивности. Если же все-таки удастся, то дальше открывается целый новый мир: невообразимые пока модели потребления, устройства, виды общения и, в конечном итоге, сингулярность. Перенос своего сознания в сеть и вечная жизнь – пока сюжет научной фантастики, может таковым и остаться.

При этом, если мы говорим об инвазивных интерфейсах, то даже сейчас их возможности выглядят многообещающе, и, в основном, в медицинской сфере. С их помощью можно будет качественнее проводить реабилитацию пациентов с проблемами мозга и нервной системы, или хотя бы частично вернуть людям с ограниченными возможностями эти самые возможности по взаимодействию с окружающим миром. То есть, фактически, стать протезом части нервной системы. И здесь основной прогресс будет идти, как и с протезами конечностей, не только в наборе этих самых возможностей, не только в функциональности, но и в направлении удешевления этих устройств. Конечно, до уровня стоимости мобильного телефона такие устройства никогда не опустятся, но со временем они должны стать достаточно доступными, чтобы как можно больше людей смогли жить полноценной жизнью.
Ринат Максутов, руководитель практики «Новые технологии» Accenture в России:
Возможности развития нейроинтерфейсов поражают воображение. Некоторые инженеры-популисты, например, Илон Маск, утверждают, что даже смартфон с мессенеджерами уже является нейроинтерфейсом с невысокой скоростью информационного канала (с передачей информации через пальцы рук и экран). Если увеличить эту скорость и научиться получать данные прямо из мозга, то получится нейроинтерфейс в понимании и не столь увлечённого наукой человека.

Направления развития характеристик нейроинтерфейсов — это детектирование (в основном ЭЭГ, ЭМГ), интерпретация (зачастую просто отслеживание низких — высоких альфа-гамма волн) и влияние на сознание с помощью различных видов сигналов. Пути этого развития затрагивают сложнейшие как технологические, так и этические вопросы. Те же группы из Neurolink и OpenAI, позиционируя себя как стремящиеся к открытости в этом вопросе, закрыли часть своих наработок, объясняя такое решение потенциальной опасностью их использования в негуманных целях.

Не стоит ждать быстрого и общедоступного роста технологии, как и в случае с VR и AR — массовые бизнес-решения здесь редки. Даже успешнейший NeuroSky продал только несколько десятков миллионов простых нейроинтерфейсов Mindwave, тогда как нейроинтерфейс классом выше, Emotiv Epoc, разошёлся всего несколькими десятками тысяч. И они зачастую используются для небольшого количества игр, разработанных энтузиастами, и эксплуатируют вау-эффект. Однако область внедрения нейроинтерфесов велика. Например, сколковский стартап «Моторика» производит бионические протезы. В соединении с уже существующими качественными нейроинтерфейсами можно внедрять программы реабилитации, в будущем — управлять протезами, используя сигналы мозга. Некоторых аспекты реабилитации и расширения возможностей уже реализовал «Нейрочат». В «ВИСТ Групп» для решения задачи контроля бодрствования водителя некоторые разработчики рассматривали возможность отслеживания изменений ритмов волн мозга (вместе с определением открытости глаз для контроля за уровнем внимания).

В задаче интерпретации исследовательские группы также предлагают инновационные решения — например, российский «СемьЗвёзд» совмещает ищущие закономерности нейронные сети с многоуровневой системой, имитирующей внутренние психологические процессы. Для понимания мысли нужно не только извлечь из большого объема данных информацию, структурировать её и выявить связи, но и интерпретировать её в связи с поставленной задачей. В этой области встречаются специалисты по Big Data, нейросетям, физиологии мозга и даже философии.

По самым оптимистичным прогнозам, через столетие управлять окружающим пространством силой мысли будет так же просто, как нам поставить лайк на смартфоне. Те компании, которые сейчас застолбят за собой часть этого рынка, окупят свои вложения. Однако с точки зрения быстрого дохода небольшим игрокам осмысленно вкладываться в рынок простых систем диагностики (например, СДВ и СДВГ) на нейроинтерфейсах, или в мини-игры с интерфейсами наподобие ментального переталкивания шарика с соперником.
Павел Пинчук, разработчик AI-решений, Вист Групп (ГК «Цифра»)
© Rusbase, 2019
Автор: Константин Рисков

Фото на обложке: SergIllin, Depositphotos
Татьяна Петрущенкова