Прослуховування «Ефекту коктейльної вечірки» у мозку

Деякі люди можуть зосередитись на одному ораторі, незважаючи на оточуюче оточення, яке затьмарює голос людини. Обстановкою може бути клас, бар або спортивний захід - ця здатність не є унікальною, і психологи описали її як “ефект коктейльної вечірки”.

Нові дослідницькі зусилля під керівництвом Каліфорнійського університету - нейрохірурга Сан-Франциско та постдокторанта були зосереджені на виявленні того, як селективний слух працює в мозку.

Едвард Чанг, доктор медичних наук, і Німа Месгарані, доктор філософії, працювали з трьома пацієнтами, які перенесли операцію на головному мозку з приводу важкої епілепсії.

Частина цієї хірургічної операції полягає у визначенні частин мозку, відповідальних за відключення судом. Ця вправа передбачає картографування активності мозку протягом тижня, за допомогою тонкого аркуша до 256 електродів, розміщених під черепом на зовнішній поверхні мозку або корі. Електроди реєструють активність у скроневій частці - будинку слухової кори.

Чанг сказав, що здатність безпечно записувати внутрішньочерепні записи надає унікальні можливості для просування основних знань про те, як працює мозок.

"Поєднання записів мозку з високою роздільною здатністю та потужних алгоритмів декодування відкриває вікно у суб'єктивний досвід розуму, якого ми ще ніколи не бачили", - сказав Чанг.

В експериментах пацієнти слухали дві зразки мови, відтворені їм одночасно, в яких різні фрази говорили різні оратори. Їх попросили визначити слова, які вони почули, вимовлені одним із двох ораторів.

Потім автори застосували нові методи декодування, щоб «реконструювати» те, що почули випробувані, аналізуючи їхні схеми мозкової активності.

Вражаюче, що автори виявили, що нервові реакції в слуховій корі відображали лише відповіді цільового мовця. Вони виявили, що їх алгоритм декодування може передбачити, якого оратора і навіть які конкретні слова суб'єкт слухає, виходячи з цих нейронних моделей. Іншими словами, вони могли сказати, коли увага слухача схилилася до іншого оратора.

"Алгоритм працював настільки добре, що ми могли передбачити не тільки правильні відповіді, але навіть тоді, коли вони звернули увагу на неправильне слово", - сказав Чанг.

Нові висновки показують, що представлення мови в корі не просто відображає все зовнішнє акустичне середовище, а лише те, що ми справді хочемо чи маємо почути.

Вони являють собою значний прогрес у розумінні того, як мозок людини обробляє мову, з негайними наслідками для вивчення порушень під час старіння, розладу уваги, аутизму та розладів вивчення мови.

Крім того, Чанг каже, що коли-небудь ми зможемо використовувати цю технологію для нейропротезування пристроїв для декодування намірів та думок паралізованих пацієнтів, які не можуть спілкуватися.

Розуміння того, як наш мозок підключений до переваги одних слухових сигналів над іншими, може заохотити нові підходи до автоматизації та вдосконалення того, як активовані голосом електронні інтерфейси фільтрують звуки, щоб правильно виявляти словесні команди.

Метод, за допомогою якого мозок може так ефективно зосередитись на одному голосі, є сферою значного інтересу для компаній, які розробляють електронні пристрої з голосово-активними інтерфейсами.

Хоча технології розпізнавання голосу, що дозволяють використовувати такі інтерфейси, як Siri від Apple, пройшли довгий шлях за останні кілька років, вони не є настільки складними, як людська мовна система. Наприклад, пересічна людина може зайти до галасливої ​​кімнати та вести приватну розмову з відносною легкістю - ніби всі інші голоси в кімнаті були приглушеними.

Розпізнавання мови, зазначає Месгарані, інженер, який займається дослідженням автоматичного розпізнавання мови, - це те, що "людям вдається надзвичайно добре, але виявляється, що машинна емуляція цієї людської здатності надзвичайно складна".

Стаття дослідження з’являється в журналі Природа.

Джерело: Каліфорнійський університет, Сан-Франциско (UCSF)

!-- GDPR -->