Китайские ученые создали прибор, который умеет распознавать те буквы и слова, о которых мы думаем в то время, когда мы говорим вслух или про себя, что приближает человечество к возможности вернуть дар речи парализованным и немым людям.
В последние десять лет ученые активно работают над созданием нейроинтерфейсов – набора микрочипов, особых электродов и компьютерных программ, позволяющих подключать к мозгу человека и животных кибер-конечности, искусственные глаза и даже те органы чувств, аналогов которых нет в природе – тепловизоры и рентгеновизоры. Кроме того, биологи пытаются найти способы интерпретировать сигналы, поступающие из мозга, и "записывать" ответ обратно.
Сяоган Чень (Xiaogang Chen) из университета Тсиньхуа в Пекине (Китай) и его коллеги создали первый в мире интерфейс такого рода, который в буквальном смысле способен извлекать звуки речи из того, как меняется электрическая активность мозга.
Данная система распознавания речи включает в себя простой электроэнцефалограф, который следит за активностью мозга, а также специальную компьютерную программу, которая декодирует сигнал и преобразует его в буквы и слова. Помимо них, китайские нейрофизиологи разработали особую методику произнесения слов про себя, которая облегчает компьютеру поиск сигнала в ЭЭГ и его расшифровку.
Эта методика, как объясняют ученые, позволяет "привязать" каждую букву к определенному цвету, благодаря чему человек будет неосознанно представлять себе последовательность оттенков во время произнесения слова по буквам. Подобный прием, по словам Ченя и его коллег, позволил им достичь почти пятикратного увеличения в скорости декодирования сигнала и достичь почти приемлемых показателей.