
Международная группа исследователей смогла описать процесс, посредством которого человеческий мозг различает музыку и речь, что позволит улучшить терапию для людей с нарушениями речи или слуха, таких как афазия, согласно статье, опубликованной в журнале Plos Biology. Несмотря на знакомство человека с музыкой и речью, ученые не знали, как автоматически определяется одно от другого. Исследователи из Университета Мехико, Китайского университета Гонконга, Нью-Йоркского университета и Института нейронауки имени Эрнста Штрунгманна во Франкфурте провели четыре слуховых эксперимента с 300 людьми. В экспериментах участники должны были отличить неоднозначные звуки, определяя, принадлежат ли они музыке или разговору. Анализ используемых участниками стратегий показал, что скорость и регулярность звука были ключевыми элементами, позволяющими им автоматически различать музыку и речь. По словам Эндрю Чанга, исследователя психологии из Нью-Йоркского университета: "результаты показали, что слуховая система использует удивительно простые и базовые акустические параметры для различения музыки и речи". Звуки с более низкими частотами и более регулярной модуляцией были идентифицированы как музыка, в то время как те, у которых частоты выше и модуляция менее регулярна, считались разговорами. Ученые считают, что это исследование поможет улучшить лечение для людей с нарушениями слуха и речи, особенно для тех, кто должен восстановить способность к речи после афазии. Терапия мелодического интонационного обучения, заключающаяся в том, чтобы научить пациентов петь то, что они хотят выразить, является одной из наиболее перспективных для помощи людям с афазией восстановить способность к речи. Понимание того, как мозг различает музыку и речь, является ключевым для разработки эффективных программ реабилитации, таких как терапия мелодического интонационного обучения, заключают авторы исследования.