Mowa i muzyka są bardzo złożonymi formami komunikacji, które są w większości unikalne dla ludzi. To, w jaki sposób nasz mózg odróżnia oba te języki jednocześnie, gdy są one połączone w pieśniach, było do tej pory tajemnicą.
Wcześniejsze badania dotyczyły mowy i dźwięków, ale nie muzyki. Philippe Albouy z Uniwersytetu McGill w Kanadzie i jego współpracownicy stworzyli 100 unikalnych piosenek a cappella, krzyżując 10 zdań po francusku lub angielsku z 10 oryginalnymi melodiami.
Zagrali piosenki 27 Francuzom i 22 Anglikom, manipulując różnymi elementami piosenek, aby zrozumieć, jak uczestnicy postrzegali słowa i melodie. Testowali dwa języki, aby sprawdzić, czy wyniki będą takie same dla obu.
Badacze odkryli, że zdolność do rozpoznawania słów jest w dużej mierze zależna od wzorców czasowych piosenek. Mowa zawiera wiele sylab na sekundę, przez co jej struktura czasowa jest ważniejsza od struktury czasowej melodii, które mają tendencję do większej płynności. Kiedy zespół zniekształcił elementy czasowe w utworach, uczestnicy mogli jeszcze zidentyfikować melodie, ale nie byli w stanie zrozumieć tekstu.
W przeciwieństwie do tego, nasza zdolność do rozpoznawania melodii wydaje się bardziej zależeć od ich wzorców częstotliwości. Kiedy naukowcy zniekształcali częstotliwości piosenek, uczestnicy mogli nadal rozumieć słowa, ale nie mogli już zidentyfikować melodii.
Dowiedz się również o największych tajemnicach piosenkarki Viki Gabor. Sprawdź TUTAJ >>
Następnie eksperymenty zostały powtórzone podczas skanowania mózgu uczestników za pomocą funkcjonalnego MRI. Ujawniło to, że lewa połowa ich mózgów wykryła informacje o czasie, które pozwoliły na rozpoznanie słowa, podczas gdy prawa połowa wykryła informacje o częstotliwości wymagane do identyfikacji melodii.
Wyniki są zgodne z wcześniejszymi obserwacjami, które sugerują, że uszkodzenie lewej półkuli mózgu ma większy wpływ na zdolności mowy, podczas gdy uszkodzenie prawej półkuli ma większy wpływ na zdolności muzyczne.
To ma sens dla naszego mózgu, aby postrzegać słowa i melodie oddzielnie, mówi Albouy. "Jeden region, który zajmuje się zarówno informacją o czasie, jak i częstotliwości, może być zbyt trudny" - mówi Albouy.
Zespół chce teraz sprawdzić, czy ludzie mówiący językami takimi jak mandaryński i wietnamski, które są bardziej melodyczne niż francuski i angielski, przetwarzają również słowa i melodie po przeciwległych stronach ich mózgu.