Поиск

KAIST разрабатывает интерфейс «мозг-машина», который позволяет управлять робот-руками силой мысли

Новые технологии, вероятно, будут способствовать коммерциализации роботизированных рук для людей с ампутированными конечностями


График, поясняющий алгоритм декодирования когнитивных сигналов, возникающих при воображении о траекториях движения руки (KAIST)


Исследователи из Корейского института передовых технологий (KAIST) заявили в понедельник, что им удалось разработать систему интерфейса «мозг-машина», которая интерпретирует сигналы мозга и тем самым позволяет пациентам управлять движениями рук робота одной лишь силой мысли.


Изучая электрокортикограммы, полученные от пациентов с эпилепсией во время воображения ими о движениях рук, исследовательские группы под руководством профессора мозга и когнитивной инженерии KAIST Чон Чжэ Сына и профессора Медицинской школы Сеульского национального университета Чон Чун Ки смогли разработать технологию декодирования когнитивных сигналов, возникающих при воображении о траекториях движения руки.


Новая технология декодирования анализирует электрические сигналы, посылаемые мозгом, когда пациенты представляют себе движения рук. Затем она, с помощью искусственного интеллекта и машинного обучения, декодирует предполагаемое движение.


По словам исследователей, новая технология поможет людям с ампутированными конечностями и инвалидам перемещать предметы без необходимости проходить длительную подготовку, необходимую для протезирования.


«Данные результаты являются инновационными, поскольку они позволяют инвалидам управлять руками роботов без необходимости проходить длительное обучение после индивидуального анализа их уникальных сигналов мозга. Мы надеемся, что это внесет значительный вклад в коммерциализацию роботизированных рук в качестве заменителей существующих протезов», — сказал профессор Чон из KAIST.


Предыдущие исследования в основном ограничивались расшифровкой сигналов мозга, посылаемых во время реальных движений рук и воображаемых движений других частей тела, объяснили ученые в пресс-релизе.


Однако анализ реальных движений рук неприменим при создании интерфейса для людей с ампутированными конечностями и парализованными пациентами, поскольку они не могут двигать руками в реальности. Более того, интерфейсы, разработанные на основе анализа воображаемых движений других частей тела, требуют от пациентов обширного обучения, поскольку это приводит к неестественным и непреднамеренным движениям рук, добавила совместная исследовательская группа.


С помощью новой технологии декодирования исследователи смогли рассчитать, расшифровать и предсказать траектории сложных воображаемых движений рук с точностью до 80 процентов.


«Это исследование продемонстрировало высокую точность предсказания траекторий воображаемых движений рук и, что более важно, более высокую точность декодирования воображаемых траекторий», — написали ученые в своем исследовании, опубликованном в Journal of Neural Engineering.


Исследование было проведено в качестве продолжения более раннего исследования, опубликованного в феврале, и финансировалось Национальным исследовательским фондом Кореи.


Ли Сын Ку (seungku99@heraldcorp.com)


#южнаякорея#корея#политика#экономика#технология#роботы#робототехника#медицина#общество#культура#гаджеты#электроника