
Pink Floyd – Эксперимент

Клайв Куксон, Financial Times сегодня. Новость попала на первую полосу.
«В конце концов, это просто ещё один просто кирпич в стене», — припев классической песни Pink Floyd раздался из динамиков в лаборатории неврологии Калифорнийского университета в Беркли, ритм и слова звучали мутновато, но узнаваемо.
Трек не был записью рок-группы, а был сгенерирован с использованием методов искусственного интеллекта из мозговых волн людей, которые его слушали, в ходе первого в мире научного эксперимента по воссозданию узнаваемой песни по нейронным сигналам.
Полученные данные будут бесценны как для ученых, стремящихся понять, как мозг реагирует на музыку, так и для нейротехнологов, которые хотят помочь людям с серьезными неврологическими повреждениями общаться через интерфейсы мозг-компьютер так, чтобы это звучало более естественно, независимо от того, говорят они или поют.
«У музыки есть просодия (образы ритма и звука) и эмоциональное содержание», — сказал Роберт Найт, профессор психологии и неврологии Калифорнийского университета в Беркли, который руководил исследованием и чьи результаты были вчера опубликованы в журнале PLOS Biology.
«По мере развития всей области интерфейсов мозг-машина это дает возможность добавить человеческий тон и ритм к будущим мозговым имплантатам для людей, которым нужна речь или голосовые выходы. Это то, код чего мы действительно начали взламывать», — добавил Найт.
Записи электроэнцефалографии, использованные в работе, были получены примерно в 2012 году, когда пациенты с эпилепсией вызвались помочь в исследовании, разрешив записывать свои мозговые волны, когда они слушали речь и музыку. Предыдущие исследования дали ученым достаточно данных, чтобы реконструировать слова, которые люди слышали по записям активности их мозга. Но только сейчас, десятилетие спустя, ИИ стал достаточно мощным, чтобы реконструировать отрывки из песен.
Исследователи из Беркли проанализировали записи 29 пациентов, которые слушали «Another Brick in the Wall (Part 1)» группы Pink Floyd. Они точно определили области мозга, участвующие в определении ритма, и обнаружили, что некоторые части слуховой коры реагируют на начало голоса? а другие — на непрерывный вокал.
Людовик Белье, который руководил анализом в Беркли, сказал, что устройства, помогающие людям общаться, имеют фрагментарное роботизированное качество, напоминающее то, как звучал покойный Стивен Хокинг. «Мы хотим дать больше цвета и выразительной свободы вокализации, даже когда люди не поют», — сказал Белье.

Под катом сообщения на тему из сегодняшних The Guardian и The Wall Street Journal.


|
</> |