música e cérebro: uma janela para a compreensão do ... · tão pouco quanto dois canais...
TRANSCRIPT
Música e Cérebro: uma janela para a compreensão do
funcionamento interativo do cérebro
Brain and the Music: a window to the comprehension of the interactive brain functioning
Paulo Estêvão Andrade
1 and Elisabete Castelon Konkiewitz
2
1Departamento de Estudos Pedagógicos do Ensino Fundamental do “Colégio Criativo”, Marilia, São
Paulo, Brazil;
2Faculdade de Ciências da Saúde, Universidade Federal da Grande Dourados, Dourados, Mato Grosso
do Sul, Brazil
Resumo Aqui revisamos os aspectos psicológicos mais importantes da música, seus substratos neurais, sua
universalidade e prováveis origens biológicas e, finalmente, como o estudo da neurocognição e das emoções
associadas à música pode fornecer uma das mais importantes janelas para a compreensão das funções
cerebrais superiores e da mente humana. Iniciamos com os principais aspectos da teoria da modularidade,
suas evidências comportamentais e neuropsicológicas. Então discutimos a psicologia e a neuropsicologia
básicas da música e mostramos como a música e a linguagem estão cognitiva e neurofuncionalmente
interrelacionadas. Em seguida, apresentamos brevemente as evidências contrárias à visão de um alto grau de
especificidade e encapsulamento do módulo putativo da linguagem e como os estudos etnomusicológicos,
psicológicos e neurocognitivos sobre música auxiliam na elucidação dos temas modularidade e evolução e
parecem fornecer subsídios adicionais para uma visão interativa e intermodal dos processos neurocognitivos.
Finalmente iremos argumentar que a noção de amplos módulos não descreve adequadamente a organização
de funções cerebrais complexas, como a linguagem, a matemática, ou a música. Propomos uma visão menos
radical de modularidade, na qual os sistemas modulares são especificados não ao nível de domínios
cognitivos culturalmente determinados, e sim mais ao nível de representações perceptuais e sensório-
motoras.
Palavras-chave: música; linguagem; modularidade; cérebro; evolução; cognição.
1. Introdução
Nos dias atuais, os princípios da seleção natural e sexual estão sendo usados cada vez
mais frequentemente para guiar a pesquisa empírica e teórica nas ciências sociais e do
comportamento e quase toda esta pesquisa tem focado o comportamento social, os
mecanismos cognitivos e outros fenômenos, os quais são vistos como tendo evoluído como
adaptações universais, tais como características do comportamento humano, que são evidentes
em todas as culturas, como, por exemplo, a linguagem (Geary, 2001). Aqui, a idéia central é
de que alguns comportamentos correntes são universalmente presentes nas culturas humanas,
porque isto teria sido evolutivamente eficaz.
Sob a perspectiva da psicologia evolucionista, a seleção natural modela as espécies de
acordo com o seu ambiente não apenas no que se refere às características físicas e
fisiológicas, mas também às comportamentais e qualquer característica que tenha evoluído
com o tempo está provavelmente distribuída universalmente, é encontrada em membros
imaturos da espécie e é processada com certo grau de automatismo.
Considerando a linguagem como exemplo todas as línguas somam aproximadamente
150 diferentes fonemas, mas cada língua humana contém por volta de 25 a 40 unidades
fonéticas, variando de 11 nas línguas polinésias a 141 na língua dos bosquímanos (Pinker,
1994), e, em todas elas seus falantes, incluindo crianças ainda muito novas, distinguem entre
sentenças gramaticais e não gramaticais sem qualquer instrução formal, sugerindo princípios
linguísticos universais definidores da estrutura das sentenças. Isto levou Chomsky a concluir
que as crianças, ao invés de aprenderem a língua apenas por associação e imitação, possuem
um conhecimento implícito tanto dos fonemas quanto das regras gramaticais abstratas, estas
últimas supostamente de natureza bastante genérica, o que lhes permite aprender qualquer
língua à qual forem expostas (Chomsky, 1957). Assim, a linguagem foi um dos primeiros
exemplos daquilo que Fodor (1983) denominou módulo mental na sua teoria da modularidade
da mente, onde um módulo é descrito como domínio-específico (ativado apenas por
informação linguagem-específica), encapsulado quanto à informação (não interfere com os
outros módulos) e inato.
Somando-se às evidências antropológicas (universalidades) e comportamentais/
psicológicas, o modelo modular da mente é também embasado por casos neuropsicológicos.
Lesões cerebrais que causam prejuízos em um domínio, enquanto poupam outros e déficits
congênitos em um domínio na presença de demais funções cognitivas, diferentemente,
completamente normais foram tomados como um forte apoio para circuitos neurais
específicos para alguns domínios, em particular, a linguagem e, mais recentemente, também o
processamento numérico (Dehaene et al., 1998) e a música (Dalla Bella e Peretz, 1999; Peretz
e Coltheart, 2003). Psicólogos evolucionistas incorporaram com muito entusiasmo a hipótese
de que alguns mecanismos cognitivos e seus respectivos substratos neurais podem ser vistos
como características individuais, que foram sujeitas à seleção e aperfeiçoadas na história
evolutiva recente do homem. Na sua visão, alguns mecanismos cognitivos envolvidos na
linguagem, ou na matemática seriam uma adaptação altamente complexa e específica
desenvolvida com admirável efetividade, possuem um componente genético e, finalmente,
não encontram paralelo em animais não humanos (Geary e Huffman, 2002). De acordo com
esta idéia, embora mecanismos homólogos possam existir em outros animais, as versões
humanas foram modificadas pela seleção natural em tal extensão, que podem ser
razoavelmente vistas como constituindo características inéditas (p.ex., inteligência social,
fabricação de instrumentos) (Bickerton, 1990; Dunbar, 1996; Kimura, 1993; Lieberman,
1984).
Entretanto, esta visão modular radical predominante na psicologia evolucionista, não é
um consenso no campo da neurociência cognitiva. Estudos de lesão (Dominey e Lelekov,
2000; ter Keurs et al., 1999), de imagem (Bookheimer, 2002; Koelsch et al., 2002a; Koelsch
et al., 2004) e desenvolvimentais (Bishop, 1999) não apoiam inequivocamente a idéia de que
a linguagem é uma função autônoma alicerçada em sua própria arquitetura estrutural e
funcional. Além disso, para reivindicar que um traço evoluiu unicamente em humanos para a
função de processamento linguístico, deve ser demonstrado que nenhum outro animal possui
este traço particular, porque qualquer traço presente em animais não-humanos não evoluiu
especificamente para a linguagem humana, embora possa ser parte da faculdade da linguagem
e desempenhe um importante papel no processamento linguístico. A este respeito, estudos
recentes têm mostrado que sistemas sensorio-motores e intencionais-conceituais, tidos como
específicos da linguagem também estão presentes em animais não-humanos (Gil-da-Costa et
al., 2004; Hauser et al., 2002).
Uma visão alternativa é o modelo interativo, de acordo com o qual os resultados
cognitivos surgem a partir de interações mútuas e bidirecionais entre populações neuronais
que representam diferentes tipos de informação, e muitas áreas primárias (p. ex., os córtices
visual primário e auditivo primário) parecem participar na representação da estrutura global
de um estímulo, ou de uma situação de resposta, e estas áreas cerebrais, que são tratadas como
específicas de modalidade (unimodais), podem ser moduladas por influências de outras
modalidades (McClelle, 2001). A descoberta de várias interações intermodais nos últimos
anos sugere que estas interações sejam a regra e não a exceção nos processos perceptivos
humanos (Macaluso e Driver, 2005) e até a modalidade visual, que durante muito tempo foi
vista como a modalidade dominante, mostrou-se ser afetada por outras modalidades
sensoriais, incluindo a audição (Foxe e Schroeder, 2005; Murray et al., 2005; Saint-Amour et
al., 2005; Schroeder e Foxe, 2005; Shams et al., 2005; Shimojo e Shams, 2001). Deste modo,
no lugar da noção de que funções cerebrais complexas, como linguagem, matemática, ou
música são organizadas em módulos amplos, específicos e encapsulados, propomos uma
visão menos radical da modularidade, na qual os sistemas modulares são específicos não ao
nível de domínios cognitivos culturalmente determinados, e sim ao nível de representações
perceptuais e sensorio-motoras que são crucialmente relevantes, porém não específicas para
um domínio particular. Uma vez que a música é um estímulo que envolve padrões e
representações auditivas e motoras complexas e também tem um enorme poder em gerar
emoções complexas e estados de humor abstratos, acreditamos que seu estudo ofereça uma
janela apropriada para a compreensão do funcionamento cognitivo superior do cérebro
humano e para observar e avaliar em que extensão o cérebro tem uma organização modular.
2. Aspectos senso-perceptivos e cognitivos básicos da música e da linguagem
A música, assim como a linguagem verbal, é baseada em padrões intencionalmente
estruturados de alturas (tons), durações e intensidades. Ambos os domínios são compostos por
sequências de eventos acústicos básicos, a saber, fonemas (vogais e consonantes) na
linguagem e notas (melodias e acordes) e sons de percussão na música.
As “alturas” (freqüências) na linguagem, determinadas principalmente pela trajetória
das freqüências fundamentais (fo) das vogais, originam a entonação da fala a qual contribui
para demarcar os limites das unidades estruturais, distingue categorias pragmáticas de
expressão vocal e transmite s intencionais e afetivos (Patel et al., 1998). Entretanto, a
percepção de transições acústicas rápidas, isto é, eclosões de ruído ou transições das
freqüências formantes dos tons complexos (ou simplesmente “formantes”) entre consoantes e
vogais (e vice-versa) que ocorrem num espaço de tempo (ou janela temporal) de apenas
dezenas de milissegundos, tem se mostrado empiricamente ser o aspecto mais crucial para a
discriminação de fonemas na linguagem. Por exemplo, quando a informação espectral
(formantes) é grandemente reduzida em uma fala artificialmente degradada, mas com as
variações temporais preservadas, ouvintes adultos e crianças de 10 a 12 anos são ainda
capazes de reconhecer a fala, embora crianças mais novas de 5 a 7 anos requerem uma
resolução espectral significativamente maior. Assim, uma fala artificialmente degradada, com
tão pouco quanto dois canais espectrais, ainda permite uma compreensão relativamente boa,
indicando que a percepção de mudanças temporais é mais relevante para a fala que os s
espectrais (Eisenberg et al., 2000; Shannon et al., 1995).
Diferentemente da fala, a pista (ou deixa) acústica primária na música é a trajetória das
freqüências fundamentais (fo) das notas musicais que caracterizam as melodias. Apesar da
importância da rápida sucessão temporal dos tons para o fraseado musical e a expressividade,
a essência do conteúdo musical se baseia na sucessão de notas, e os intervalos de tempo entre
elas na música são normalmente maiores que na linguagem. Entretanto, é difícil determinar
precisamente os intervalos de tempo comuns à música, pois eles variam extensamente entre
estilos e culturas musicais. Zatorre et al (2002) observou que as notas musicais são
tipicamente muito mais longas na duração que os fonemas consonantes, o que é
definitivamente verdade, e que melodias com durações de notas menores que 160 ms são
muito difíceis de se identificar (Zatorre et al., 2002a). Resumindo, o ponto principal é que os
intervalos de tempo entre fonemas na linguagem verbal são ainda muito mais curtos, na faixa
de 10-39 ms, que entre notas nos ritmos musicais assim como no ritmo supra-segmentar na
linguagem (Phillips e Farmer, 1990).
Interculturalmente, a música envolve não apenas sons padronizados, mas também ação
manifesta e/ou encoberta, e mesmo a escuta ‘passiva’ de música pode envolver ativação de
regiões cerebrais envolvidas com movimento (Janata e Grafton, 2003); portanto, não é mera
coincidência que semanticamente falando, ao contrário da linguagem, a música é tanto
corporificada (envolvendo não apenas som, mas também ação) quanto polissêmica (mutável
nos seus significados e sentidos específicos). Precursores desenvolvimentais da música desde
a fase pré-verbal e ao longo da primeira infância (0 a 6 anos), ocorrem na forma de
comportamentos proto-musicais universais (Trevarthen, 2000), os quais são exploratórios,
enraizados cinestesicamente e intimamente ligados a jogos de vocalização e a movimentos de
todo corpo. Estas peculiaridades universais da semântica musical levaram algumas culturas a
empregar termos para definir música que são muito mais inclusivos do que o conceito
ocidental de música, como a palavra nkwa que para o povo Ibo da Nigéria denota “cantar,
tocar instrumentos e dançar” (Cross, 2001). A música funciona de muitas diferentes formas
através das culturas, desde um meio para comunicação (os Kaluli de Papuásia-Nova Guiné
usavam a música para se comunicarem com os membros mortos), para reestruturação de
relações sociais (as tribos dos Venda da África do Sul usam música para a dança domba de
iniciação das jovens da tribo), para constituir um caminho para cura e para estabelecer
relacionamentos sexuais (tribos do noroeste da China tocam as ‘canções das flores’ hua'er)
(Cross, 2003b). Assim, a música é uma propriedade não apenas das cognições e
comportamentos individuais, mas também de interações sociais inter-individuais. Estudos
desenvolvimentais fornecem ainda mais suporte ao conceito de que a música é corporificada.
Baseados nestes argumentos, aderimos à redefinição mais ampla de música, em termos
tanto de som quanto de movimento bem como as relações entre ambos (Cross, 2001, 2003
a,b). Aqui, a música é definida como uma forma de comunicação baseada no som,
corporificada, não-referencial e polissêmica, cujo conteúdo é principalmente, mas não
exclusivamente, emocional, construído sobre a organização de sons em duas principais
dimensões, nota/altura e tempo.
3. Música, psicologia evolutiva e modularidade
Alguns teóricos (Pinker, 1994; Pinker, 1999) não vêem nenhum papel adaptativo para
a musicalidade humana na evolução, porque ela não tem nenhuma eficácia evidente e
imediata, ou referência fixa consensual (mas veja (Cross, 2001)). Diferentemente da
linguagem, os sons musicais normalmente não se referem a outro objeto externo a ela, seja ele
concreto ou abstrato, o que leva à conclusão precipitada de que a música não tem um valor
adaptativo óbvio; entretanto, esta noção de Pinker (1994) contrasta com o fato de que as
evidências neuropsicológicas, desenvolvimentais e antropológicas são tão fortes a favor da
modularidade da música, quanto para a modularidade da linguagem, incluindo o isolamento
de circuitos neurais específico da música em lesões e déficits musicais congênitos (Andrade e
Bhattacharya, 2003; Peretz e Hebert, 2000; Trehub, 2003). Brevemente, isto inclui a
dissociação dupla entre música e linguagem nos estudos de lesão cerebral (incluindo prejuízos
seletivos de subfunções musicais), déficits congênitos específicos da habilidade musical
chamados de amusia congênita (ausência das habilidades musicais mais básicas, tais como
reconhecimento de variação de altura entre as notas e discriminação de uma melodia da outra,
apesar de habilidades intelectuais e linguísticas intactas), universalidade de características
comuns através de diferentes estilos e culturas musicais (nos princípios subjacentes à melodia,
intervalos consonantes/dissonantes, notas nas escalas musicais e no metro) e, finalmente, as
habilidades musicais precoces em bebês as quais são equivalentes às de adultos no
processamento de melodia, consonância e ritmo.
4. Cognição musical e modularidade
Cognitivamente falando, a dimensão tonal (melodias e acordes) e a temporal (metro e
ritmo) na música podem ser separadas. A dimensão tonal, por sua vez, pode ser vista sob três
aspectos distintos, embora relacionados: (i) a direção geral das notas (do grave para o agudo e
vice-versa), que contribui para o contorno tonal global da melodia, (ii) a distância de altura
exata entre as notas, que define os intervalos musicais locais, e (iii) a combinação simultânea
das notas, que forma os acordes. Podemos reconhecer melodias apenas pela percepção global
do seu contorno tonal, sendo a análise do intervalo local dispensável nesta tarefa global. A
análise do intervalo local, por sua vez, é crucial para discriminar melodias curtas (motivos)
que possuem os mesmos contornos e diferem apenas em uma nota, na construção e
discriminação de escalas (um subgrupo particular de sequências unidirecionais de tons, de
contorno único ascendente ou descendente), cuja diferença se baseia no intervalo exato de
notas entre tons na escala, e, finalmente, na apreciação e análise de acordes, uma vez que eles
são estruturas verticais que não têm um contorno, e se diferenciam uns dos outros na sua
estrutura de intervalo.
Na dimensão tonal, nos focamos especificamente na melodia, porque ela é um
fenômeno humano universal que se destaca proeminentemente na maioria dos tipos de música
através do mundo e que pode ser resgatada a tempos pré-históricos (Eerola, 2004).
Uma fonte inicial de evidência para a visão modular da linguagem e da música
provém dos casos clínicos de agnosia auditiva. As amusias consistem em um subtipo
intrigante de agnosia auditiva seletiva para a música, preservando a percepção e o
reconhecimento de sons lingüísticos e ambientais (natureza, animais, máquinas, etc.). As
amusias podem ser divididas em “aperceptivas”, em que o reconhecimento é prejudicado por
deficits na percepção sem prejudicar as representações musicais de longo-prazo, e
“associativas”, em que o reconhecimento é prejudicado apesar de uma percepção intacta (o
paciente consegue discriminar entre pequenas melodias), nos mesmos moldes da terminologia
oferecida por Lissauer (1989). Em suma, nós podemos dizer que os sistemas de percepção e
reconhecimento musical, em contraste à linguagem que é predominantemente processada no
córtex perisilviano esquerdo (areas frontotemporoparietais em volta da fissure de Sylvius),
mas quase a espelhando, reside principalmente nas regiões frontotemporais direitas cujas
lesões estão associadas com prejuízos seletivos na percepção e/ou reconhecimento musical
que preservam a linguagem (Dalla Bella and Peretz, 1999; Peretz and Coltheart, 2003; veja
Andrade, 2004).
Na organização temporal, pesquisadores têm concordado com uma divisão conceitual
entre métrica global e ritmo local na música (Drake, 1998). Metro é a percepção global de
uma invariância temporal de pulsos/batidas recorrentes, fornecendo unidades de duração pelas
quais reconhecemos uma marcha (acento maior na primeira de duas batidas), ou uma valsa
(acento maior na primeira de três batidas), e também funciona como um “relógio cognitivo”
que nos permite avaliar a duração exata (em números de batidas) dos eventos auditivos
(Wilson e Davey, 2002). Ritmo é a percepção local da proximidade temporal, ou grupamento
de eventos auditivos adjacentes que formam unidades maiores. Este grupamento temporal que
leva à percepção de ritmo pode ocorrer somente baseando-se na estimativa da duração das
notas e, consequentemente, não necessita da avaliação exata da duração da nota que é
realizada por meio do metro (Penhune et al., 1999; Wilson et al., 2002).
A existência de estratégias cognitivas distintas, local e global, na percepção musical,
tanto na dimensão tonal quanto na temporal, são suportadas por estudos comportamentais
(Gordon, 1978; Peretz e Babai, 1992; Tasaki, 1982), neuropsicológicos (Liegeois-Chauvel et
al., 1998; Peretz, 1990; Schuppert et al., 2000) e de neuroimagem funcional (Mazziotta et al.,
1982; Platel et al., 1997). De acordo com estudos de lesão, estruturas do hemisfério direito,
principalmente no giro temporal superior (STG), estão crucialmente envolvidas na percepção
fina das variações tonais (entre as notas) na melodia, enquanto que estruturas contralaterais no
hemisfério esquerdo estão crucialmente envolvidas na percepção de transições acústicas
rápidas, como as que ocorrem na percepção das combinações vogal/consoante (Zatorre et al.,
2002).
É importante notar que a música e a linguagem compartilham mecanismos cognitivos
em ambas as dimensões, tonal (entonação e contornos tonais) e temporal (particularmente o
ritmo) (Patel e Balaban, 2004; Patel et al., 1998), e, consequentemente, suas dissociações são
relativas ao invés de absolutas. Em geral, os córtices auditivos do STG direito estão
crucialmente envolvidos na percepção tonal fina (variações tonais sutis), ao passo que os
córtices auditivos contralaterais no GTS esquerdo têm um papel crucial na percepção das
rápidas transições acústicas da ordem de algumas dezenas de milissegundos, como aquelas
que ocorrem nas combinações “consoante-vogal" (Zatorre et al., 2002). Entretanto, a
dominância direita para o processamento tonal ocorre inclusive na percepção fonética das
entonações das vogais (Zatorre et al., 1992).
4.1. Evidências contra a modularidade I: a linguagem e a música se encontram no
cérebro
A habilidade inacreditável de bebês de discriminar virtualmente todos os contrastes
fonéticos de todas as línguas, inicialmente tomada como evidência de detectores inatos de
características fonéticas especificamente evoluídos para a fala (Kuhl et al., 2000, p. 11.851),
também foi encontrada quando os estímulos eram sons não-linguísticos, que imitavam as
características acústicas da fala, e esta percepção categórica dos fonemas também foi
encontrada em várias espécies animais, e macacos, incluindo a percepção das pistas
prosódicas da fala (Ramus et al., 2000). Esta capacidade discriminativa poderia ser explicada
por mecanismos cognitivos de domínio geral, ao invés de mecanismos que lidam
exclusivamente com a linguagem (Kuhl et al., 2001). Adicionalmente, ao contrário da visão
de modularidade, que argumenta que a experiência lingüística produz ou a manutenção, ou a
perda dos detectores fonéticos, novas evidências mostram que crianças exibem mudanças
desenvolvimentais genuínas, e não a mera manutenção de uma habilidade inicial. Aos 7
meses, bebês americanos, japoneses e taiwaneses se desempenharam igualmente bem na
discriminação entre sons das línguas nativa e não-nativa, enquanto que aos 11 meses de idade
eles mostraram um aumento significante na percepção fonética na língua nativa e uma queda
na percepção de fonemas de línguas estrangeiras (Kuhl et al., 2001). Uma visão emergente
sugere que bebês se engajam em uma nova forma de aprendizado, na qual a informação
lingüística é mapeada em detalhes pelo cérebro do bebê. O conceito central é de que
simplesmente ouvindo linguagem os bebês podem adquirir informação sofisticada e mapear
perceptivamente aspectos críticos da língua ambiente no primeiro ano de vida, mesmo antes
que eles possam falar, e estas habilidades perceptivas são universais, mas não domínio-
específicas ou espécie-específicas. Em outras palavras, contrariamente à visão de que o
desenvolvimento é baseado na seleção e na manutenção de um subgrupo daquelas unidades
acionadas pela informação lingüística, com subseqüente perda daquelas que não são
estimuladas, os bebês exibem uma mudança desenvolvimental genuína; além disso, adultos
submetidos a técnicas que minimizam os efeitos da memória e do treinamento extensivo
podem aumentar seu desempenho em fonemas de línguas não-nativas, indicando que não há
uma perda imutável das habilidades fonéticas para unidades não-nativas (Kuhl, 2000).
Evidências neuropsicológicas recentes mostram que a área de Wernicke na junção
temporoparietal, envolvendo a parte posterior do STG (área de Brodman BA 22) e “partes
imediatamente adjacentes da região parietal inferior” (BA 39/40) (Mesulam, 1998, p. 1029),
tradicionalmente considerada uma área específica da linguagem para o processamento
fonético e semântico, foi até mais importante no processamento de sons não-verbais que no de
sons verbais, sugerindo que o processamento semântico de eventos auditivos, sejam sons
verbais, ou não-verbais, se baseia em recursos neurais compartilhados (Saygin et al., 2003).
Finalmente, a percepção do contorno tonal também é usado na linguagem (Zatorre et
al., 1992), e, quando prejudicado, os déficits podem se estender à prosódia linguística,
particularmente afetando as entonações da linguagem (Nicholson et al., 2003; Patel et al.,
1998; Steinke et al., 2001). De fato, déficits prosódicos de linguagem previamente verificados
em pacientes com lesão cerebral direita com amusia são também encontrados em indivíduos
diagnosticados com amusia congênita (Ayotte et al., 2002). Tomadas juntas, as evidências
comportamentais, desenvolvimentais e neuropsicológicas claramente confirmam que a
especificidade cerebral para a música ou para a linguagem é mais relativa que absoluta. A
dissociação relativa entre a música e a linguagem se deve ao fato de que os contornos de
entonação na fala normalmente usam variações de altura maiores que a metade de uma oitava
para transmitir informação relevante, enquanto que a maioria das melodias usa pequenos
intervalos, na ordem de 1/12 (a diferença de altura/nota de um semitom correspondente à
diferença entre duas teclas adjacentes no piano), ou 1/6 (a diferença de altura/nota de um tom
correspondente à diferença entre duas teclas separadas por uma tecla) de uma oitava. Portanto,
um sistema de percepção de notas/alturas degradado pode comprometer a percepção musical,
mas deixar aspectos básicos da prosódia da fala intactos. A amusia congênita é esclarecedora
aqui.
Nas tarefas de discriminação tonal, sujeitos amúsicos congênitos são incapazes de
detectar um pequeno desvio tonal tanto em tons isolados como em sequências monotônicas e
isocrônicas, tais como mudanças de nota menores que dois semitons (a acuidade normal é da
ordem de um quarto de semitom), um desempenho que não pôde ser melhorado mesmo com
a prática (Peretz et al., 2002), mas eles desempenham como os controles na detecção de um
leve desvio de tempo no mesmo contexto (Ayotte et al., 2002). Isto indica que os seus déficits
parecem residir na dimensão tonal. Em contraste, variações tonais na fala são bem percebidas
pelos indivíduos amúsicos congênitos, porque elas são muito grosseiras comparadas àquelas
usadas na música. O aumento final do tom que é indicativo de um questionamento é
normalmente maior que a metade de uma oitava (a distância tonal entre duas notas no piano
separadas por doze teclas). Estes fatos são consistentes com o conceito de que, ao invés de ser
um déficit específico do domínio musical, a amusia congênita reflete um problema mais
elementar no processamento de baixo nível da informação auditiva, resultando em déficits na
discriminação tonal fina da mesma forma que muitas dificuldades de processamento
lingüístico surgem de deficiências na resolução temporal auditiva (Zatorre et al., 2002).
Por outro lado, embora haja alegações de que os prejuízos de linguagem surgem de
falhas específicas ao processamento lingüístico (Studdert-Kennedy e Mody, 1995),
deficiências de linguagem podem também resultar de um problema mais elementar na
percepção de mudanças temporais acústicas refinadas (Tallal et al., 1993). De fato,
dificuldades de processamento de tempo nas suas diferentes dimensões são uma característica
admiravelmente universal na dislexia, um déficit de linguagem congênito presente em 5-10%
das crianças em idade escolar, que falham em aprender a ler, apesar da inteligência normal,
ambiente e oportunidades de educação adequadas, e que provavelmente se deve à dificuldade
no hemisfério esquerdo de integrar estímulos em mudança rápida (Habib, 2000).
Entretanto, é importante reiterar que, juntamente com a amusia congênita, temos as
agnosias associativas adquiridas nas quais os pacientes não reconhecem melodias antes
familiares e estão prejudicados na codificação tonal (detectar notas desafinadas, ou fora da
tonalidade) propositadamente inseridas nas melodias a despeito de completamente
preservadas a percepção tonal fina, a discriminação melódica e a linguagem (Peretz, 1996;
Peretz et al., 1994). Ambos os casos, de amusia congênita e amusia associativa adquirida,
representam casos espetaculares de isolamento dos componentes musicais no cérebro cujo
quadro comum é o prejuízo na codificação tonal decorrente de alterações de um circuito
neural frontotemporal direito (Peretz, 2006), um prejuízo que parece estar ligado mais à perda
da sensibilidade à dissonância do que à consonância (Peretz et al., 2001; Tramo et al., 2001),
ambas sensibilidades já presentes em bebês de apenas 2 meses e meio de idade (Trainor et al.,
2002b). Entretanto, é importante notar que diferentemente das amusias associativas adquiridas
a amusia congênita também se caracteriza por prejuízos na percepção tonal fina, a qual parece
ser fundamental para a percepção de consonância (Tramo et al., 2002), o que pode ser
devastador para o desenvolvimento da codificação tonal e das representações musicais de
longo prazo nos amúsicos congênitos, mas não para o desenvolvimento das habilidades
lingüísticas (Hyde & Peretz, 2004; Peretz, 2006). Embora as evidências apontam que a
música e a linguagem pareçam compartilhar mecanismos cognitivos e substratos neurais na
percepção tonal fina, há um consenso emergente de que esta habilidade é de crucial relevância
para o desenvolvimento de um possível “módulo tonal” no córtex frontotemporal direito e da
representações musicais de longo prazo, mas não para as habilidades lingüísticas (Peretz,
2006).
Juntos, estes achados suportam a noção de que pelo menos um componente cognitivo
da música, a codificação tonal, poderia constituir um “modulo tonal” dentro de um conceito
mais amplo de modularidade proposto por Barret e Kurzban (2006), de acordo com o qual a
especificidade de domínio é melhor caracterizada não pelo encapsulamento, mas sim em
termos de especialização funcional, isto é, mecanismos computacionais que evoluíram para
processar estímulos biologicamente relevantes de forma especializada baseada nos aspectos
formais do estímulo, tal como a percepção fina das variações de tons (percepção tonal fina), e
não no seu “conteúdo” ou “significado”, tal como uma melodia. Assim, por ser crucial
somente para a percepção e desenvolvimento das habilidades de processamento melódico,
particularmente a codificação tonal, a percepção tonal final pode ser considerada uma
especialização functional para a música, que não é totalmente encapsulada ou desencapsulada
em um sentido absoluto (Barret and Kurzban, 2006, p.631; veja também Peretz, 2006).
Portanto, embora a música e linguagem pareçam estar claramente dissociadas em termos
funcionais ao nível da percepção tonal fina, isto não significa que ambos os domínios não
possam interagir na dimensão tonal.
4.2. Evidências contra a modularidade II: o ritmo na música e na linguagem
Consistentemente com a nossa argumentação de que é no domínio temporal que há a
mais conspícua e maior proporção de compartilhamento entre a linguagem e a música, os
déficits temporais das crianças disléxicas não são confinados à linguagem, mas também se
estendem ao domínio musical, e de uma forma interessante: eles parecem se restringir à
dimensão temporal (metro e ritmo) da música, preservando a dimensão tonal. Esta ligação
entre déficits lingüísticos e déficits musicais temporais nas crianças disléxicas levou a uma
hipótese testável baseada em lições musicais em grupo, consistindo em canto e brincadeiras
de ritmo, as quais, embora aparentemente não ajudassem a ler, tiveram um efeito positivo
tanto nas habilidades fonológicas, quanto nas de soletração (Overy, 2003; Overy et al., 2003).
Estudos com crianças com idade entre 4-5 anos mostram que a música tem um efeito
significativamente positivo em ambas a consciência fonológica e o desenvolvimento da
leitura, de modo que as habilidades de percepção musical podem predizer confiavelmente a
habilidade de leitura (Anvari et al., 2002). Assim, as dissociações entre linguagem e música
na dimensão temporal são muito menos consistentes que na dimensão tonal.
A característica temporal mais importante é o ritmo, o qual tem se mostrado mais
frequentemente prejudicado em casos de lesões no hemisfério esquerdo (Efron, 1963;
Mavlov, 1980; Swisher e Hirsh, 1972; Brust, 1980; Eustache et al., 1990) que, por sua vez, é
mais ativado nos estudos de neuroimagem durante tarefas rítmicas (Platel et al., 1997;
Parsons, 2001; Sakai et al., 1999). Se o ritmo é preferencialmente processado no hemisfério
esquerdo, o metro, assim como tarefas rítmicas que requerem a extração das durações exatas
dos eventos auditivos, ambos são mais frequentemente prejudicados por lesões no lobo
temporal direito (Penhune et al., 1999) e/ou lesões fronto-parietais direitas (Harrington et al.,
1998; Steinke et al., 2001), um padrão também consistente com estudos de neuroimagem
(Parsons, 2001; Sakai et al., 1999). De fato, lesões do hemisfério esquerdo que induzem à
afasia de Broca (Efron, 1963; Mavlov, 1980; Swisher e Hirsh, 1972), ou à afasia de condução
(Brust, 1980; Eustache et al., 1990), ou à afasia anômica (Pötzl e Uiberall, 1937) também
provavelmente induzirão a distúrbios musicais, principalmente no domínio temporal.
Normalmente, os déficits na discriminação dos ritmos musicais, ou ordenação temporal são
devido a lesões no hemisfério esquerdo, principalmente em regiões anteriores afetando o
córtex pré-frontal, e têm sido associados a déficits na memória de trabalho verbal (Erdonmez
e Morley, 1981), na memória fonológica de curto prazo (Peretz et al., 1997), e à afasia de
Broca (Efron, 1963; Swisher e Hirsh, 1972), embora lesão pré-frontal esquerda também cause
déficits na escuta ativa de variações de notas, tais como contorno e intervalos tonais (Ayotte
et al., 2000), ou ao se julgar se uma comparação de pares de tons foi mais alta, ou mais baixa
que o par de tom padronizado (Harrington et al., 1998). Estudos de imagem em indivíduos
saudáveis fornecem evidência adicional de que o ritmo é processado no hemisfério esquerdo,
mais especificamente nas áreas frontais inferiores esquerdas, tais como a área de Broca.
Interessantemente, as relações entre música e linguagem na dimensão temporal são
consistentes com uma noção há muito tempo compartilhada entre os musicólogos e que
recentemente tem recebido forte suporte empírico: o ritmo da música de uma nação reflete o
ritmo de sua língua. Novos métodos têm permitido a comparação direta entre ritmo e melodia
na fala e na música, e entre diferentes línguas tais como o inglês britânico e o francês (Patel,
2003b; Patel and Daniele, 2003), e revelam que o maior contraste de durações entre vogais
sucessivas no inglês versus o francês se refletiu no maior contraste de durações entre as notas
da música inglesa versus a música francesa. Mas as línguas não diferem somente na sua
prosódia rítmica (padrões temporais e de acentuação), mas também na forma como as
entonações vocais variam ao longo das frases e sentenças (a “entonação” se refere à melodia
da fala), e, recentemente, foi descoberto que os intervalos entre as notas na música de uma
dada cultura reflete a entonação de sua língua. Em suma, a música instrumental de fato reflete
a prosódia da lingual, mostrando assim que a linguagem que nós falamos pode influenciar a
música que nós produzimos (Patel et al., 2006).
4.3. Evidências contra a modularidade III: sintaxe na música e linguagem
A música, tal como a linguagem, é uma forma de comunicação acústica baseada em
um grupo de regras capazes de combinar um número limitado de elementos perceptivos
discretos (tons/notas na música, e fonemas na linguagem) em um número infinito de maneiras
(Lerdahl and Jakendorff, 1983). Em ambos os domínios, a organização seqüencial de
elementos auditivos básicos consiste em um forte sistema baseado em regras de uma natureza
generativa (ou gerativa), onde a complexidade é construída pelas regras de permutações de
um número limitado de elementos discretos permitindo-se uma gama potencialmente infinita
de estruturas de alta ordem tais como sentenças, temas e tópicos, etc., e esta capacidade
combinatória generativa também é referida como “recursão” ou “infinidade discreta” (Hauser
et al., 2002). O grupo de elementos que governam a combinação de elementos estruturais
discretos (fonemas e palavras tons/notas e acordes) em sequências é chamado de sintaxe. As
respostas cerebrais que refletem o processamento de sequências de acordes são similares
(embora não idênticas) à atividade cerebral eliciada durante a percepção da linguagem tanto
em sujeitos músicos quanto não músicos (Koelsch et al., 2002a; Patel et al., 1998).
O compartilhamento dos mecanismos envolvidos na abstração de regras presentes na
sintaxe musical e linguística é notável. Estudos recentes revelam respostas cerebrais
relacionadas com o processamento sintático localizadas na área de Broca (BA 44/45) e sua
parte homóloga no hemisfério direito (Koelsch et al., 2002a; Maess et al., 2001), áreas bem
conhecidas por estarem envolvidas no processamento da sintaxe linguística (Dapretto and
Bookheimer, 1999; Friederici et al., 2000), sugerindo, assim, o compartilhamento de
mecanismos subjacentes ao processamento sintático entre música e linguagem (Levitin and
Menon, 2003; Patel, 2003a). A detecção de desvios musicais levaram à ativação bilateral de
áreas notadamente envolvidas na sintaxe lingüística, tais como regiões frontais
compreendendo o córtex insular antero-superior e áreas inferofrontais laterais, mas também
de partes posteriores do STG, incluindo a área de Wernicke (BA 22) e o plano temporal (PT,
BA 42) (Koelsch et al., 2002, veja Andrade, 2004); estas ativações indicam que a informação
auditiva é processada por estruturas cerebrais que são menos domínio-específicas do que
previamente se acreditava. Estudos recentes investigando déficits cognitivos na afasia
agramática (Dominey and Lelekov, 2000; Lelekov et al., 2000; ter Keurs et al., 1999) em
conjunção com dados obtidos em sujeitos saudáveis (Lelekov-Boissard and Dominey, 2002)
também sugerem que o papel do córtex frontal inferior na sintaxe linguistic esta mais
relacionado ao processamento de regras abstratas, linguísticas e não linguísticas. Por exemplo,
pacientes agramáticos também apresentam déficits não lingüísticos tais como no
processamento de sequência de letras, como “ABCBAC” e “DEFEDF”, as quais possuem
diferente ordenação ou estrutura serial, mas compartilham a mesma estrutura abstrata
“123213”. Reciprocamente, ter Keurs e colaboradores (1999) mostraram que pacientes
afásicos com agramatismo não apresentaram um déficit específico para palavras de “classe
fechada” ou “gramaticais”, mas, ao invés disso, possuíam um déficit relacionado à memória
de trabalho evidenciado pela disponibilidade atrasada ou incompleta da informação da classe
das palavras (fechadas/gramaticais ou abertas/substantivos).
Estes dados não são completamente surpreendentes se nós levarmos em consideração
que as sequências lingüísticas e musicais são criadas por princípios combinatórios que operam
em múltiplos níveis, tais como na formação das palavras, frases e sentenças na linguagem, e
de acordes, progressão de acordes e tonalidades na música (estrutura harmônica), fazendo
com que as percebamos em termos de relações hierárquicas que contêm padrões organizados
de significado. Na linguagem, um significado suportado pela sintaxe é “quem fez o quê a
quem”, que é a estrutura conceitual de referência e predicação nas sentenças; na música, um
significado é suportado pelos padrões de tensão e resolução (relaxamento) experenciados
durante o desenrolar da música no tempo (Lerdahl and Jakendorff, 1983); para uma revisão
veja Patel, 2003a).
Juntas, estas evidências de compartilhamento entre música e linguagem são
consistentes com achados recentes de que bebês humanos e macacos sagüis são capazes de
discriminar línguas diferentes que pertencem a diferentes classes de prosódia rítmica, mas não
discriminam entre línguas de mesma classe rítmica (Ramus et al., 2000; Tincoff et al., 2005).
Estas evidências levaram a uma proposta mais geral de que os bebês constroem o
conhecimento gramatical por meio do “bootstrapping prosódico”, expressão inglesa derivada
da palavra bootstrap (alça de calçar botas), uma expressão idiomática que significa puxar-se
pelos próprias alças das botas, puxar-se a si mesmo, isto é, progredir sem ajuda externa, com
o próprio esforço e facilitação interna. Na proposta do botstrapping prosódico seria
principalmente por meio da percepção rítmica que os bebês desenvolvem a percepção e
análise dos componentes fonológicos e sintáticos da língua (veja Tincoff et al., 2005). Vale
notar que a proposta do “bootstrapping prosódico” é consistente também com a evidência
neuropsicológica aqui reportada da freqüente co-ocorrência de sintomas de agramatismo com
déficits rítmicos em pacientes com afasias de Broca e de condução (Efron, 1963; Mavlov,
1980; Swisher and Hirsh, 1972; Brust, 1980; Eustache et al., 1990), e com a noção de
interação entre música e linguagem nos domínios temporal e sequencial e de
compartilhamento de mecanismos cognitivos no processamento sintático.
5. Cognição musical e processamento intermodal
Ao discutir o compartilhamento dos mecanismos neurocognitivos entre música e
linguagem, juntamente com o fato de a música ser corporificada e polissêmica, nós
automaticamente adotamos uma abordagem intermodal da cognição musical. Como já
apontamos, a música, de fato, é ação tanto quanto é percepção. Simplesmente, a música nos
‘move’. Quando alguém executa música, ou percute, ou dança, ou canta, juntamente com a
música, a experiência sensorial dos padrões musicais está intimamente acoplada à ação.
Ao considerarem-se os dados de neuroimagem para inferir eventuais sobreposições
entre processamento musical e outros domínios, é importante manter em mente que padrões
semelhantes de ativação cerebral sozinhos não são necessariamente aceitos como
sobreposição, porque vias neurais distintas, porém entremeadas e muito próximas uma da
outra, podem ser vistas como a mesma ativação, refletindo os limites de resolução de voxels
de 3 x 3 x 4 mm do método de ressonância magnética nuclear funcional (fMRI). Portanto,
nossas comparações de dados de neuroimagem usados para arguir a favor da sobreposição
entre a música e outros domínios foram baseados principalmente, mas não apenas, nos
critérios adotados na meta-análise sobre processamento espacial auditivo conduzida por
Arnott et al. (2004). Os autores analisaram dados de artigos revistos por pares sobre estudos
de processamento auditivo, incluindo 27 estudos sobre processamento de sons não-espaciais e
11 sobre processamento de sons espaciais, que incorporaram imagens ou de tomografia por
emissão de pósitron (PET) ou de fMRI com adultos normais, saudáveis. Nós então
comparamos ativações de muitos estudos de neuroimagem sobre percepção musical com as
ativações relatadas durante o processamento auditivo espacial no estudo de Arnott et al.
(2004), frequentemente com limites de resolução de ~ 4 mm cúbicos. Este mesmo critério foi
aplicado nas comparações entre música e linguagem. Quando, finalmente, agregamos ambos
os dados de imagem e de lesão, isto é, mostrando a mesma sobreposição ou de ativações
cerebrais na neuroimagem de sujeitos saudáveis e dos padrões de déficit e de função cognitiva
preservada nos dados de lesão, nós interpretamos esta evidência como um forte suporte ao
processamento intermodal.
Tem-se observado sobreposições significativas entre os substratos neurais envolvidos
em tarefas visuo-espaciais e de percepção musical. Por exemplo, áreas corticais occipitais e
fronto-parietais, tradicionalmente envolvidas em tarefas visuo-espaciais, incluindo o pré-
cuneus nos lobos parietais mediais chamado “olho da mente” por estar crucialmente
envolvido na geração de imagens visuo-espaciais (Mellet et al., 2002; Mellet et al., 1996),
estão entre as regiões mais frequentemente e mais significativamente ativadas na percepção
de música, seja em ouvintes leigos seja em músicos (Mazziotta et al., 1982; Nakamura et al.,
1999; Platel et al., 1997; Satoh et al., 2001; Satoh et al., 2003; Zatorre et al., 1994; Zatorre et
al., 1998), e até em sujeitos imaginando mentalmente uma melodia (Halpern e Zatorre, 1999).
Estes dados de imagem são consistentes com três casos bem documentados de amusia que
relataram lesões nas áreas parietais e déficits acompanhantes nas tarefas espaço-temporais
(Griffiths et al., 1997; Steinke et al., 2001; Wilson e Pressing, 1999), e casos de déficits
associados em tarefas de percepção tonal e em tarefas visuo-espaciais em pacientes com lesão
pré-frontal esquerda (Harrington et al., 1998). Ativações frontais bilaterais e frontais
inferiores, principalmente em áreas pré-motoras frontais (BA 6), áreas pré-frontais
dorsolaterais (BA 8/9), assim como áreas frontais inferiores como a de Broca (BA 44/45),
ínsula, e córtices frontais mais anteriores medial e inferior (BA 46/47), são frequentemente
observados tanto em não-músicos (Platel et al., 1997; Zatorre et al., 1994), quanto em
músicos (Ohnishi et al., 2001; Parsons, 2001; Zatorre et al., 1998). Ativações do circuito pré-
motor e parietal posterior nas tarefas de notas não são surpreendentes se levarmos em conta
que estudos de neuroimagem funcional em humanos sugerem o envolvimento de circuitos
pré-motores do córtex parietal posterior não apenas no controle motor, mas também em
processos cognitivos, tais como tarefas mentais de construção de objetos (Mellet et al., 1996)
e outras tarefas visuo-espaciais envolvendo memória de trabalho, implícita (Haxby et al.,
1994) ou explicitamente (Smith et al., 1996).
Quando não-músicos foram solicitados a dizer se a segunda de duas melodias
representa uma mudança ou não, todos os focos de ativação estavam no hemisfério esquerdo
com as ativações mais significativas no pré-cuneus/cuneus esquerdo (BA 18/19/31), uma
região tradicionalmente envolvida em tarefas de imaginação espacial (Platel et al., 1997).
Poderia ser argumentado que tarefas de percepção tonal atenta e analítica impõem demandas
na imaginação visual em termos de ‘alto’ e ‘baixo’ em relação a uma linha base de notação
musical mental, ou uma partitura musical mental, o que foi sugerido pelos próprios sujeitos
não-músicos durante seus relatos (Platel et al., 1997). Ativações do lobo parietal superior
esquerdo, particularmente na junção parieto-occipital, ocorreram quando pianistas
profissionais estavam lendo partituras sem ouvir, ou executar música (Sergent et al., 1992), e
isto foi interpretado como a participação do sistema visual dorsal no processamento espacial
da leitura das partituras, uma vez que a notação musical é baseada na distribuição espacial e
na separação relativa das alturas entre as notas nas partituras, formando ‘intervalos de notas’.
Outros estudos de imagem têm relatado frequentemente ativação dos lobos parietais
superiores (Zatorre et al., 1998) e do pré-cuneus também em tarefas perceptuais (Satoh et al.,
2001). Halpern e Zatorre (1999) encontraram que músicos, quando solicitados a reproduzir
mentalmente uma melodia não familiar que acabaram de ouvir, produziram significativas
ativações no córtex pré-frontal inferior esquerdo (BA 44, 47, 10), e ativações bilaterais no
giro frontal superior/médio e córtex pré-motor (BA 6), córtex visual de associação (BA 19),
córtex parietal e pré-cuneus (BA 40/7), mas nenhuma ativação foi encontrada nos lobos
temporais. Tanto músicos com ouvido absoluto (AP), quanto com ouvido relativo (RP) ambos
mostraram ativações bilaterais dos córtices parietais ao julgarem um intervalo musical, mas
com ativação parietal esquerda mais forte em músicos com RP, cujas estratégias cognitivas
contam mais com a manutenção da informação tonal na memória de trabalho auditiva para a
comparação entre notas em uma partitura mental (Zatorre et al., 1998), enquanto que músicos
com ouvido absoluto contam mais com a associação verbal e memória de longo prazo
(Zatorre et al., 1998).
Finalmente, uma importante revelação dos estudos de imagem sobre percepção
musical e produção são as ativações significativas do cerebelo (Parsons, 2001; Zatorre et al.,
1994) tanto nas tarefas de notas como nas de rítmo.
Como apontaram Janata e Grafton (2003), três domínios de pesquisa em psicologia e
neurociência são particularmente pertinentes para o entendimento das bases neurais de
comportamentos seqüenciados na música e estes são cronometragem, atenção e aprendizado
de sequências. De fato, a música pode ser pensada como uma sequência de eventos
padronizados no tempo e em uma “representação espacial abstrata” (feature space) que é
multidimensional e consiste de ambas as informações sensorial e motora. Padrões motores
determinam como posicionamos efetores no espaço, tais como dedos nas teclas do piano,
enquanto que padrões sensoriais refletem a organização dos objetos ou eventos auditivos, tais
como as notas ou série de notas no tempo quando ouvimos melodias ou acordes,
respectivamente. Produção de sequências espaciais e temporais em humanos produz ativações
em muitas regiões cerebrais, incluindo o cerebelo, a área suplementar motora (SMA), o córtex
pré-motor (PMC), gânglios da base e córtex parietal, os quais são ricamente interconectados.
Com base em uma cuidadosa meta-análise Janata e Grafton (2003) argumentaram que parece
haver um circuito central subjacente a comportamentos seqüenciados, no qual diferentes
níveis de complexidade mostram sobreposição considerável em algumas regiões tais como o
córtex sensório-motor (SMC), correspondente aos giros pré-central e pós-central que contêm
as áreas motoras e somatosensoriais primárias, e a SMA, enquanto que níveis mais altos de
complexidade estão relacionados com sobreposição e ativações maiores no cerebelo, gânglios
da base, tálamo, PMC, córtex pré-frontal ventro-lateral (VLPFC), sulco intraparietal (IPS) e
pré-cuneus. Todas estas regiões também foram relacionadas com o processamento musical
(Janata e Grafton, 2003).
Dado que a música inerentemente consiste de sequências auditivas e informação
motora, é esperado encontrar mecanismos cognitivos e circuitos neurais compartilhados entre
música e comportamento seqüenciado.
6. Universalidades na música
Pesquisas com crianças e comparações interculturais são as duas principais abordagens
no estudo da contribuição dos aspectos universais e culturais na percepção musical. A
peesquisa com crianças ajuda a esclarecer as predisposições no processamento musical que
transcendem a cultura e na descrição de como as propriedades específicas da cultura se
desenvolvem (para uma revisão vide (Trehub, 2003)). Investigações interculturais comparam
as respostas dos ouvintes de culturas musicais claramente distintas, procurando tanto por
fatores culturalmente específicos quanto aqueles que transcendem a cultura. Os tópicos nos
estudos interculturais sobre música variam desde respostas emocionais à música (Balkwill et
al., 2004), expectativas melódicas (Castellano et al., 1984; Krumhansl et al., 2000), encontro
do pulso (Toivanen e Eerola, 2003), até discriminação de intervalos (Burns, 1999).
Há evidências de características comuns através de diferentes estilos musicais nos
princípios subjacentes à melodia (Krumhansl e Toiviainen, 2001), na resposta a aspectos
como intervalos consonantes/dissonantes, notas nas escalas musicais e na métrica, (Drake,
1998; Drake e Bertre, 2001). A forma como uma criança processa padrões musicais é
semelhante a dos adultos (Trainor e Trehub, 1992); crianças respondem melhor a padrões
melódicos assim como consonantes e harmônicos, e a ritmos métricos complexos (Trainor et
al., 2002a; Zentner e Kagan, 1996). Há motivos para crer que crianças no início da vida
possuem ouvido absoluto, mas mudam depois para ouvido relativo (Saffran e Griepentrog,
2001), e que elas têm memória musical de longo-prazo (Saffran et al., 2000). O uso difundido
de escalas de intervalos desiguais entre as notas, normalmente de 5 a 7 notas baseadas dentro
do intervalo de oitava (o intervalo mais consonante, correspondendo a 12 semitons e formado
pela primeira e pela oitava última nota da escala), é outra universalidade da música, a qual
também é preferida até por bebês quando comparadas a escalas de intervalos iguais entre as
notas (Burns, 1999; Trehub et al., 1999; Trehub et al., 1990).
As expectativas formadas pelos ouvintes enquanto escutam uma música são também
universais através das culturas. A expectativa é um componente básico da percepção musical
e opera em uma variedade de níveis, incluindo os níveis melódico, harmônico, métrico e
rítmico, e remete à questão “o quê” e “quando”, ou seja, quais tons ou acordes espera-se que
ocorram em uma dada sequência musical, e quando devem ocorrer. Presume-se que a
expectativa não apenas desempenhe um papel importante em como os ouvintes agrupam os
eventos sonoros em padrões coerentes, mas também na apreciação dos padrões de tensão e
relaxamento que contribuem para os efeitos emocionais da música. Ambas as respostas
cognitiva e emocional à música dependem de se, quando e como as expectativas são
preenchidas. O principal método usado em comparações interculturais de expectativas
musicais é a tarefa da “nota-prova” ou “tom-prova” (probe tone task), primeiramente
desenvolvida por Krumhansl e Shepard (1979) para quantificar a hierarquia percebida da
estabilidade dos tons.
Em experimentos de expectativa melódica uma melodia é apresentada muitas vezes
aos ouvintes, mas em cada ocasião é seguida por um “tom-prova” com graus variados de
adequação em relação ao contexto melódico precedente. Usando-se uma escala de
classificação (rating scale), os ouvintes avaliam o grau no qual o tom-prova se adequa às suas
expectativas sobre como a melodia deveria continuar (Krumhansl et al., 2000). Estudos
interculturais comparando as classificações de adequação dos tons-prova feitas por ouvintes
indianos e ocidentais enquanto ouviam ragas do norte da Índia (Castellano et al., 1984), de
ouvintes ocidentais e balineses enquanto ouviam música balinesa (Kessler et al., 1984), assim
como de ouvintes americanos e chineses nativos enquanto ouviam canções folclóricas
chinesas e inglesas (Krumhansl, 1995), revelaram que classificação de adequação dos tons-
prova apresentaram uma alta concordância entre ouvintes destas diferentes culturas musicais.
Adicionalmente, uma consistência marcante foi encontrada entre ouvintes indianos
(Sul da Ásia) e ocidentais (Castellano et al., 1984) na atribuição de pontuações maiores de
adequação para a tônica (correspondente à primeira nota da escala e sua oitava que é 12
semitons mais aguda) e para a quinta (que forma um intervalo de 4 semitons com a tônica)
notas da escala em que se baseou a melodia; a tônica e a quinta são universais através das
culturas musicais e ocorrem mais frequentemente e com maiores durações que as outras notas
da escala, e na teoria musical indiana são consideradas tons estruturais importantes nos ragas.
Interessantemente, as respostas dos ouvintes ocidentais não corresponderam às hierarquias de
tons maiores e menores segundo a Teoria da Harmonia na música ocidental (Krumhansl,
1990), mas sim às previsões para a música indiana. Adicionalmente, foi mostrado que todos
os ouvintes podem apreciar alguns aspectos de diferentes culturas musicais ao atentarem para
as propriedades estatísticas da música, tais como o número de vezes em que as notas e
combinações de notas (freqüência) aparecem nos contextos musicais apresentados, a despeito
de alguns efeitos residuais da experiência e da familiaridade do ouvinte com a cultura musical
em questão (Castellano et al., 1984). Trabalhos interculturais recentes sobre expectativas
melódicas com música coreana (Nam, 1988) bem como música do povo Sami da península
escandinava (Eerola, 2004; Krumhansl et al., 2000), forneceram evidências adicionais da
confiança universal nos arranjos hierárquicos das notas, indicando que a música se baseia em
princípios psicológicos comuns de expectativa mesmo que as culturas musicais tenham um
efeito distinto sobre estes princípios, embora a forma exata como isto ocorre varie com a
cultura.
Ouvintes abrangendo desde versados a completamente não-familiarizados com a
cultura musical Sami, a saber, cantores nativos de Sami yoik (versados), estudantes de música
finlandeses (semi-versados), e, finalmente, estudantes de música da Europa Central
(Krumhansl et al., 2000) e curandeiros tradicionais da África do Sul (não-versados) (Eerola,
2004), julgaram a adequação dos tons-prova como continuações de excertos de North Sami
yoik, um estilo musical dos povos indígenas Sami da Escandinávia (o único povo indígena da
Europa, também referidos como lapões) que é inteiramente distinto da música tonal ocidental
(Krumhansl et al., 2000; Eerola, 2003; Eerola et al., 2004). Consistentemente com os estudos
prévios, todos os quatro grupos mostraram forte concordância (Castellano et al., 1984;
Kessler et al., 1984; Krumhansl, 1995b).
Suporte adicional para as universalidades cognitivas da música também foi fornecido
pelos modelos de “frequência de eventos” (propriedades estatísticas das distribuições dos
tons/notas), de acordo com os quais os ouvintes parecem extrair os eventos que ocorrem mais
frequentemente na melodia e que atuam como pontos de referência cognitiva estabelecidos
por repetição (Eerola et al., 2004). De fato, a sensibilidade às propriedades estatísticas da
música também influencia as expectativas dos ouvintes (Oram & Cuddy, 1995; Krumhansl et
al., 1999, 2000), e é aparentemente um processo universal exibido até por bebês de 8 meses
(Saffran, Johnson, Aslin & Newport, 1999).
Hoje há um consenso geral de que além das “pistas” culturais, os ouvintes possuem
princípios psicológicos gerais inatos na percepção auditiva, tais como sensibilidade à
consonância, à proximidade de intervalo e, finalmente, às propriedades estatísticas, os quais
têm sido extensivamente mostrados influenciarem as expectativas dos ouvintes (Oram &
Cuddy, 1995; Krumhansl et al., 1999, 2000; Eerola, 2003). Como vimos anteriormente, a
consonância é preferida até mesmo por bebês de 2-4 meses em relação à dissonância (Trainor
et al., 2002) e a sensibilidade às propriedades estatísticas da música é um processo universal
exibido por bebês de apenas 8 meses (Saffran et al., 1999, Trainor et al., 2002).
Finalmente, na organização temporal das sequências auditivas dois processos
universais foram identificados (Drake, 1998): (i) segmentação das sequências em grupos de
eventos, realizada em termos de mudanças na duração das notas e na saliência, e já presentes
na infância precoce (Krumhansl e Juscsyk, 1990), e (ii) a extração de um pulso subjacente
através da percepção de intervalos regulares (Drake e Baruch, 1995), os quais permitem
inferir o pulso (metro) constante dos padrões de agrupamento temporal (ritmo) e categorizar
padrões rítmicos e melódicos únicos, uma habilidade intercultural presente em adultos
(Toivanen e Eerola, 2003) e também em crianças (Hannon e Johnson, 2005).
7. Música e Emoções
Como apontamos acima, a resposta emocional à música depende de “se, quando e
como” as expectativas são preenchidas (para uma revisão vide (Eerola, 2004)) e a habilidade
extraordinária da música de evocar emoções poderosas é provavelmente a principal razão,
porque ouvimos música e porque ela é geralmente referida como a “linguagem das emoções”.
Consistentes com os resultados de expectativas musicais (Eerola, 2004), achados
empíricos recentes sugerem que o significado emocional na música é transmitido por “pistas”
ou “insinuações” acústicas universais, tais como complexidade, volume, tempo, cuja
interpretação não requer familiaridade com as convenções musicais culturalmente específicas
(Balkwill et al., 2004). Interculturalmente, aumentos na complexidade percebida parecem
estar consistentemente associados a emoções negativas de raiva e tristeza, enquanto que
diminuições estão associadas à alegria e felicidade. Além disso, aumentos no tempo percebido
estão associados à alegria, ao passo que diminuições no tempo estão associadas à tristeza.
Finalmente, aumentos de volume são frequentemente associados à raiva (Balkwill et al.,
2004) e criam desprazer até mesmo em primatas não-humanos (McDermott e Hauser, 2004).
Consonância e dissonância certamente desempenham um papel nas emoções relacionadas a
valores positivos e negativos, respectivamente (Peretz et al., 2001; Blood & Zatorre, 2001;
Trainor et al., 2002b).
A música é capaz de consistentemente induzir fortes emoções de valor emocional
tanto positivo como negativo através dos indivíduos (Krumhansl, 1997) e culturas (Balkwill
et al., 2004; Eerola, 2004). Por exemplo, Jaak Panksepp (1995) perguntou a várias centenas
de homens e mulheres jovens porque eles sentiam que música era importante em suas vidas e
70% de ambos os sexos respondeu que era “porque ela evoca emoções e sentimentos”, em
segundo lugar veio “para aliviar o tédio”.
Hoje, já sabemos que a música evoca diretamente as emoções, ao invés de meramente
expressar uma emoção que o ouvinte reconhece. A maioria das pessoas experimenta uma
resposta particularmente intensa, eufórica à música, frequentemente acompanhada por um
componente autonômico, ou psicofisiológico, descrito como um “calafrio na espinha”, ou
“arrepios”. Ouvir música, automaticamente evoca mudanças fisiológicas na circulação
sanguínea, na respiração, na condutância da pele e na temperatura corporal, as quais são
respostas autonômicas do sistema nervoso simpático (Krumhansl, 1997). Khalfa et al. (2002)
demonstrou que a SCR (atividade eletrodérmica medida pela resposta de condutância da pele
para mensurar o grau de excitação do estímulo) pode ser evocada e modulada pela incitação
emocional da musica. Similaridades nas mensurações das emoções musicais e visuais por
meio da técnica de EEG denominada PRE (potenciais relacionados a eventos) sugerem que o
processamento de emoções musicais pode não ser domínio-específico, ou seja, pode não ser
diferente em natureza das emoções evocadas por outros eventos, tais como palavras e imagen
(Khalfa et al., 2002).
Estudos de neuroimagem e de lesão revelam as bases subcorticais profundas das
experiências emocionais musicais em muitas áreas cerebrais homólogas entre humanos e
todos os outros mamíferos (Blood e Zatorre, 2001; Brown et al., 2004; Gosselin et al., 2005).
A música agradável/consonante afeta diretamente áreas paralímbicas, como a ínsula, o córtex
orbitofrontal e o córtex pré-frontal ventro-medial, todas tradicionalmente associadas à
recompensa/motivação, emoção e alerta, bem como o sistema meso-límbico de dopamina, a
mais importante via neural relacionada à recompensa (Blood e Zatorre, 2001; Blood et al.,
1999; Menon e Levitin, 2005). Em contraste, a música desagradável/dissonante afeta
diretamente o giro parahipocampal (Blood et al., 1999), uma estrutura paralímbica ativada
durante estados emocionais desagradáveis evocados por figuras com valência emocional
negativa, juntamente com a amígdala (Lane et al., 1997), a qual, por sua vez, é uma estrutura
chave no processamento do medo e com a qual o giro parahipocampal tem fortes conexões
recíprocas (Bechara et al., 2003; Mesulam, 1998). Recentemente foi demonstrado que lesão
unilateral da amígdala prejudica seletivamente a percepção da expressão emocional do medo
em música assustadora (acordes menores do terceiro e sexto graus da escala e tempo rápido,
alguns com dissonância e ritmos irregulares), enquanto que o reconhecimento de alegria
(modo maior e tempo rápido) foi normal e o reconhecimento de serenidade (modo maior e
tempo /intermediário tocado com acompanhamento pedal e de arpejos) foi menos claramente
afetado pela ressecção do lobo temporal mesial (Gosselin et al., 2005).
Há também evidências de dupla dissociação entre cognição musical e processamento
emocional da música. Lesão bilateral do córtex auditivo causou déficits severos e irreversíveis
na expressão musical, assim como na percepção de ambas as dimensões tonal e temporal,
confirmados por testes de discriminação ‘igual-diferente’ das sequências musicais, incluindo
material musical consonante e dissonante (Peretz et al., 2001), e ainda assim os pacientes
puderam apreciar e desfrutar o seu significado afetivo/emocional (Peretz et al., 1997) e
classificar melodias como ‘alegres’ e ‘tristes’ com a mesma acurácia dos sujeitos controles
(Peretz e Gagnon, 1999). Reciprocamente, a perda da resposta emocional à música na
presença de habilidades de percepção musical completamente preservadas é reportada em um
paciente com infarto na ínsula esquerda, estendendo-se anteriormente ao lobo frontal e
inferiormente para a amígdala no hemisfério esquerdo (Griffiths et al., 2004), todas essas
áreas em estreita correspondência com áreas do hemisfério esquerdo ativadas durante
respostas emocionais à música em sujeitos normais (Blood e Zatorre, 2001). Ambos os
estudos oferecem uma importante dupla dissociação entre cognição musical e processamento
emocional, isto é, entre os componentes perceptuais e emocionais do processamento musical,
o primeiro envolvendo as áreas temporais superiores e parietais e frontais inferiores, e o
segundo engajando um circuito cerebral distribuído, o qual é também recrutado por outros
poderosos estímulos emocionais que leva à estimulação autonômica e inclui estruturas
límbicas mesiais bilaterais, a ínsula, o estriado ventral, o tálamo, o mesencéfalo e regiões
neocorticais difusamente distribuídas.
Resumindo, há cada vez mais evidências de que a música deriva sua carga emocional
diretamente dos aspectos dinâmicos dos sistemas cerebrais que normalmente controlam as
emoções, os quais a despeito de serem distintos dos cognitivos operam em alta interatividade
com estes. A habilidade da música em incitar nossas emoções de uma forma muito direta é
uma linha de evidência convincente a favor da idéia de que atribuições cognitivas em
humanos não são exclusivamente necessárias para a ativação de processos emocionais no
cérebro/mente. Em outras palavras, o processamento cognitivo para codificar convenções
culturais não é totalmente essencial para se extrair o significado emocional na música, uma
idéia apoiada por estudos cognitivos interculturais, assim como por estudos de lesão e de
neuroimagem.
A ligação entre música e estruturas subcorticais da emoção no cérebro humano é
reforçada pela relação entre emoções musicais e a neuroquímica de emoções específicas no
cérebro de mamíferos. Panksepp previu que antagonistas de receptores de opióides, tais como
naloxona e naltrexona, podem diminuir nossa apreciação emocional da musica (Panksepp,
1995). De fato, dados preliminares fornecidos por Goldstein (1980) indicaram há muito tempo
que tais manipulações podem reduzir os arrepios, ou frêmitos que muitas pessoas
experimentam ao ouvirem música especialmente comovente.
8. Discussão: o papel da música no desenvolvimento
Contrariamente à crença de que a música é um mero subproduto cultural e sua
apreciação necessariamente envolve a apropriação de convenções culturais, o corpo crescente
da pesquisa científica revela que, em acréscimo aos processos cognitivos universais
observados na percepção musical, a música não poderia ser uma experiência significativa e
desejável sem os sistemas emocionais ancestrais dos nossos cérebros. Além disso, apesar da
existência de alguns circuitos cerebrais cruciais e particularmente relevantes para a música no
hemisfério direito, grande parte dos processos neurocognitivos envolvidos na música e na
linguagem não parecem ser domínio-específicos da linguagem nem da música, nem tampouco
encapsulados. A música, em particular, tem se mostrado um domínio cognitivo supra-modal,
envolvendo áreas corticais tradicionalmente associadas à linguagem, processamento espacial
e motor, assim como áreas subcorticais associadas a processamento emocional básico.
Emocionalmente falando, ao contrário de muitos outros estímulos, a música pode, com
freqüência, evocar emoções espontaneamente na ausência de associações externas, e a nossa
capacidade de decifrar os substratos neurais das respostas estéticas pode revelar-se mais fácil
para a música que para as artes visuais (Ramachandran e Hirstein, 1999) e, assim como os
estímulos visuais biologicamente relevantes, a música ativa estruturas primitivas nas áreas
límbica e paralímbica tradicionalmente relacionadas ao medo e à recompensa,
respectivamente, incluindo os sistemas de alerta dependentes de norepinefrina e serotonina
que regulam respostas emocionais, assim como sistemas de busca de recompensa/incentivo,
centrados em circuitos dependentes de dopamina (DA) mesolímbicos e mesocorticais, os
quais também são importantes na estimativa intra-cerebral de passagem do tempo
provavelmente relacionada aos movimentos rítmicos do corpo; juntas estas evidências
sugerem uma pré-adaptação ancestral aos componentes emocionais da música (Panksepp e
Bernatzky, 2002). Assim sendo, a música bem elaborada é unicamente eficaz em ressoar com
os nossos sistemas emocionais básicos, trazendo à vida muitas propensões afetivas que podem
estar codificadas, como um direito hereditário, dentro de circuitos neurais antigos construídos
pelos nossos genes, muitos dos quais compartilhamos homologamente com outros mamíferos
(Panksepp e Bernatzky, 2002). Portanto, nosso amor pela música possivelmente reflete a
habilidade ancestral do nosso cérebro mamífero de transmitir e receber sons emocionais
básicos, que podem despertar sentimentos afetivos, os quais são indicadores implícitos de
aptidão evolutiva.
Reciprocamente, cognitivamente falando a música, ao contrário de muitos outros
estímulos, é abismalmente supra-modal, envolvendo circuitos neurais auditivos, motores,
espaciais, numéricos, emocionais e lingüísticos.
A questão central é “Por quê?”. Os dados revistos aqui parecem ter duas implicações
importantes. Primeiro, a música poderia ser baseada na existência de sons emocionais
intrínsecos que fazemos (os elementos prosódicos animalescos das nossas emissões sonoras) e
nos movimentos rítmicos do nosso aparato motor instintivo/emocional, ambos evolutivamente
moldados para indicar certos estados subjetivos mais prováveis de promover ou impedir nosso
bem estar (Panksepp e Bernatzky, 2002). Segundo, que estas características emocionais e
supra-modais da música são também evolutivamente importantes para promover a
estimulação e o desenvolvimento de diversas capacidades cognitivas (Cross, 2001; 2003a).
Nós vimos que aspectos cruciais da percepção tonal na música são provavelmente
moldados por mecanismos de processamento auditivo relativamente básicos, não domínio-
específicos da música, e podem ser estudados em animais experimentais (Hauser e
McDermott, 2003; McDermott e Hauser, 2004). Em criaturas sociais como nós, cujos
ancestrais viviam em ambientes silvestres e onde o som era uma das formas mais efetivas de
coordenar atividades coesas em grupo, reforçar vínculos sociais, resolver animosidades e
estabelecer hierarquias estáveis de submissão e dominância, deve ter havido um prêmio para a
capacidade de comunicar matizes de significado emocional por meio do caráter melódico
(prosódia tonal) dos sons emitidos (Panksepp & Bernatzky, 2002). Portanto, o som é uma
excelente forma de ajudar a sincronizar e regular as emoções, de modo a manter a harmonia
social, e podemos pensar que a capacidade de gerar e decodificar sons emocionais deve ser
uma ferramenta excelente para a sobrevivência. A capacidade do nosso cérebro de ressoar
emocionalmente com música pode ter uma profunda história evolutiva multidimensional,
incluindo aspectos relacionados à emergência da comunicação intersubjetiva, a estratégias de
seleção de parceiros e à emergência de processos regulatórios para outras dinâmicas sociais,
como as vinculadas à coesão de grupo e à coordenação de atividades.
Os princípios da psicologia evolucionária propõem que os cérebros de humanos e de
outras espécies são adaptados para processar e responder a três classes gerais de informações:
social, biológica e física. Quanto mais elevada a espécie na hierarquia evolutiva, mais
importantes são as características psicológicas relacionadas ao comportamento social. A teoria
da mente é especialmente conspícua em humanos e representa a habilidade de fazer
inferências sobre as intenções, crenças e estados emocionais e o provável comportamento
futuro de outros indivíduos (Meltzoff, 2002), desempenhando um papel central em todas as
competências sócio-cognitivas. Sob uma perspectiva comparativa, linguagem e teoria da
mente são as competências sócio-cognitivas mais altamente desenvolvidas em humanos
(Pinker, 1999) e supõe-se que sejam elas o resultado evolutivo da complexidade das
dinâmicas sociais humanas. Nós propomos que as conexões entre a música e a imitação são
impressionantes. Vamos iniciar com uma melhor noção dos princípios subjacentes à imitação.
Convergências impressionantes entre os achados cognitivos e neurocientíficos indicam
que a imitação é inata em humanos e precede a mentalização e a teoria da mente (no
desenvolvimento e na evolução) e, finalmente, que a imitação comportamental e seu substrato
neural fornecem o mecanismo pelo qual a teoria da mente e a empatia se desenvolvem nos
humanos. Argumenta-se que na ontogênese a imitação infantil parece ser o gérmen da teoria
da mente do adulto. Recém-nascidos com apenas 42 minutos de vida são capazes de imitação
facial bem sucedida, e bebês de 12-21 dias puderam imitar quatro gestos adultos diferentes:
protrusão labial e da língua, abertura da boca e movimento do dedo, e não confundiram nem
as ações, nem as partes do corpo (Meltzoff, 2002). Bebês podem vincular o self e os outros
através do que foi chamado representação ‘supra-modal’ do ato corporal observado. A
imitação precoce parece fornecer a primeira ocasião em que os bebês fazem uma conexão
entre o mundo dos outros e seus próprios estados internos, a forma como eles se sentem.
Bebês reconhecem quando outros atuam ‘como eu’ e o alto valor emocional desta
experiência. Além disso, bebês olharam por mais tempo o adulto que os estava imitando;
sorriram mais para este adulto e, o mais significativo, direcionaram comportamentos testando
este adulto, em comparação ao adulto que não os imitou (Meltzoff e Decety, 2003).
A música entra em cena, quando consideramos que, pela sua natureza supra-modal,
incluindo emoções, a percepção musical parece ser um comportamento inato que estimula,
entre outras coisas, a representação supra-modal subjacente à imitação. Uma observação
comum na literatura sócio-desenvolvimentista é a de que brincadeiras entre pais e filhos são
com freqüência de imitação recíproca em sua natureza. Quando os pais balançam um
chocalho ou vocalizam, os bebês balançam, ou vocalizam de volta. Um aspecto de
“alternância da vez” destas brincadeiras é a “dança rítmica” entre mãe e filho. A imitação é
frequentemente bidirecional, porque os pais imitam seus bebês, assim como os bebês imitam
seus pais (Meltzoff, 1999). Adultos através das culturas brincam de jogos de imitação com as
suas crianças que incorporam o caráter temporal da “alternância de vez” que também está
presente na “dança rítmica” entre mãe e criança (Trevarthen, 1979; Trevarthen, 1999). As
conexões entre comportamentos proto-musicais em bebês e imitação estão se tornando cada
vez mais evidentes.
Sabemos que jogos de imitação com música e dança são universais e as próprias
danças tribais em si mesmas podem ser vistas como uma das mais freqüentes formas de jogos
de imitação, usadas para desenvolver o senso de “pertencimento ao grupo”, ambos os
sentimentos de “ser como o outro” e de o outro “ser como eu” e assim de pertencer a um
grupo. Talvez não seja coincidência que os precursores desenvolvimentais da música, desde o
início da primeira infância na fase pré-verbal e ao longo de toda ela, ocorram sob a forma de
comportamentos proto-musicais, os quais são exploratórios e cinesteticamente encarnados,
intimamente ligados a brincadeiras de vocalização e a movimentos de todo o corpo. Bebês
humanos interagem com seus cuidadores produzindo e respondendo a padrões de som e ação.
Estas interações controladas no tempo envolvem sincronismo e “alternância da vez” e são
empregadas na modulação e regulação de estados afetivos (Dissanayake, 2000) bem como na
aquisição e controle da atenção compartilhada, também referida como “intersubjetividade
primária” (Trevarthen, 1999). Esta ritmicidade também é manifestação de uma competência
musical fundamental uma musicalidade que “é parte de um impulso natural no aprendizado
sócio-cultural humano, que se inicia na infância” (Trevarthen, 1999, p.194) e permite aos
bebês acompanhar e responder de acordo com as regularidades temporais na vocalização, no
movimento e no tempo, a iniciar séries de vocalizações e movimentos temporalmente
regulares (Trevarthen, 1999).
Os comportamentos proto-musicais acima descritos tornam a música
inextricavelmente ligada à aquisição da linguagem. A proto-musicalidade está tão
intimamente entrelaçada aos comportamentos proto-verbais que as “origens pré-verbais de
habilidades musicais não podem ser facilmente diferenciadas dos estágios pré-linguísticos da
aquisição da fala e do alfabeto básico da comunicação emocional” (Papousek, 1996b, p. 92),
e os elementos musicais que participam no processo do desenvolvimento comunicativo inicial
pavimentam o caminho para as habilidades lingüísticas antes dos elementos fonéticos
(Papousek, 1996a). Na dimensão tonal, interações bebê-cuidador tendem a exibir o mesmo
espectro de características, tais como contornos tonais exagerados da parte do cuidador
(“maternalês”) e modulação melódica e articulação primitiva da parte do bebê, tudo no
contexto de uma ritmicidade interativa e cinestética. Da parte do bebê, estas atividades se
desenvolvem em jogos vocais exploratórios (entre 4 e 6 meses), que dão lugar a um balbucio
repetitivo (de 7 a 11 meses) do qual emergem ambos o balbucio variegado (sílabas não
repetitivas) e primeiras palavras (entre 9 e 13 meses) (Kuhl et al., 2001; Papousek, 1996a;
Papousek, 1996b). O comportamento linguístico começa a se diferenciar das capacidades
proto-musicais/proto-linguísticas conforme o bebê se desenvolve, quando as interações
pais/bebê usam cada vez mais vocalizações e gestos para comunicar afeto na troca de
‘pedidos’, apoiando mais o desenvolvimento de gestos referenciais e vocalizações, orientando
a atenção de ambos os participantes para objetos, eventos e pessoas fora da díade bebê-pais
(Cross, 2001).
O papel biológico do comportamento musical parece se ajustar não apenas ao
desenvolvimento de capacidades sócio-afetivas e linguísticas, mas também à flexibilidade
cognitiva dos bebês humanos. A música pode ser vista como uma forma de atividade
multimodal ou multimidiática de movimentos temporalmente padronizados. A natureza
polissêmica da música e a sua característica de ser uma forma de exploração da interação
social livre de conseqüências e um “espaço-de-ensaio” que possibilita a repetição de
processos, parecem fornecer o modo ideal de adquirir flexibilidade cognitiva, além do seu
papel na socialização da criança. O papel da música no desenvolvimento das capacidades
cognitivas individuais parece ser bem respaldado por um dos principais aspectos do
processamento neural da música, a intermodalidade. De fato, ouvir e fazer musica parece ser
um meio perfeito de formar conexões e inter-relações entre diferentes domínios de
competência do bebê e da criança, tais como o social, o biológico e o mecânico.
9. Conclusão
Agora podemos dizer que a música não é somente polisêmica, mas também é
polimodal. A música é universal entre as culturas humanas, estantes ou extintas e “nos une em
uma identidade coletiva como membros de nações, religiões e outros grupos” (Tramo, 2001).
Embora pelo menos um dos componentes da música, a saber, a codificação tonal das
notas melódicas, pareça realmente ser domínio-específico da música, este é crucialmente
dependente do processamento auditivo básico, a percepção tonal fina, o qual é crucialmente
relevante para a música, mas não domínio-específico em um sentido fodoriano estrito.
Os comportamentos complexos provavelmente evoluídos biologicamente tais como
música e linguagem, o processamento especial, parecem realmente compartilhar muitos
módulos neurocognitivos em comum, ao passo que a seletividade observada nos estudos de
lesão parecem ser um resultado do perfil diferencial de relevância deste grupo de módulos
neurais compartilhados para cada domínio complexo. De fato, os déficits não são
completamente seletivos (exceto com relação à codificação tonal na música), e os déficits do
processamento tonal aparentemente seletivos para a música, por exemplo, podem estar
acompanhados de déficits no processamento espacial e na linguagem, e são seletivos
justamente porque são muito mais deletérios para a música do que para os outros domínios.
Por outro lado, o processamento do ritmo na música parece estar claramente vinculado ao
processamento da linguagem como mostram os estudos com lesões e de neuroimagem.
A universalidade da música juntamente com sua principal característica que é a
intermodalidade, sugerem que suas diferentes manifestações culturais são particularizações
culturais da capacidade humana de formar múltiplas representações intencionais múltiplas por
meio da integração da informação através de diferentes domínios funcionais da experiência e
comportamento humanos que são temporalmente extendidos ou seqüenciados e geralmente
expressos em som. Nós nos diferenciamos de nossos parentes primatas por um imenso salto
na flexibilidade cognitiva e em nossa capacidade de nos envolver e sustentar em uma larga
gama de relações e interações sociais. A natureza polisêmica e intermodal do comportamento
musical parece fornecer à criança um espaço dentro do qual ela pode explorar as possíveis
conexões destas representações multimodais.
A pesquisa científica da música nos ajuda não somente a compreender o
funcionamento misterioso e maravilhoso de nosso cérebro, mas também a lançar luzes sobre a
essência do comportamento humano e, consequentemente, da espécie humana.
Agradecimentos
Nós agradecemos ao Prof. Joydeep Bhattacharya pela sua inestimável ajuda na melhoria
deste texto, fornecendo valiosos comentários e críticas de uma versão anterior deste
artigo.
Referências
Andrade, P. E. (2004). Uma abordagem evolucionária e neurocientífica da música.
Neurociências, 1(1), 21-33
Andrade, P. E. and Bhattacharya, J. (2003). Brain tuned to music. Journal of Royal Society of
Medicine, 96 (8), 284-287.
Andrade, P. E., Andrade O. V. C. A., Gaab N., Gardiner M. F. & Zuk J. (2010) Investigando a
Relação entre Percepção Musica e Habilidades Cognitivo-Linguísticas em Leitores Iniciantes
da Língua Portuguesa. Resumos/Abstracts, XXXIV Congresso Anual da Sociedade Brasileira
de Neurociências e Comportamento. Retirado em 17 de dezembro de
http://www.sbnec.org.br/congresso2010/resumos/R0364-1.html.
Anvari, S. H.; Trainor, L. J.; Woodside, J. and Levy, B. A. (2002). Relations among musical
skills, phonological processing, and early reading ability in preschool children. J Exp Child
Psychol, 83 (2), 111-130.
Arnott, S. R.; Binns, M. A.; Grady, C. L.; & Alain, C. (2004). Assessing the auditory dual-
pathway model in humans. Neuroimage, 22(1), 401-408.
Ayotte, J.; Peretz, I. and Hyde, K. (2002). Congenital amusia - A group study of adults
afflicted with a music-specific disorder. Brain, 125 (2), 238-251.
Ayotte, J.; Peretz, I.; Rousseau, I.; Bard, C. and Bojanowski, M. (2000). Patterns of music
agnosia associated with middle cerebral artery infarcts. Brain, 123 (9), 1926-1938.
Balkwill, L-L.; Thompson, W. F. and Matsunaga, R. (2004). Recognition of emotion in
Japanese, Western, and Hindustani music by Japanese listeners. Japanese Psychological
Research, 46 (4), 337-349.
Bechara, A.; Damasio H. and Damasio, A.R. (2003). Role of the amygdala in decision-
making. Ann N Y Acad Sci, 985, 356-69.
Bickerton, D. (1990). Species and Language. Chicago: Univ. of Chicago Press.
Bishop, D. V. (1999). Perspectives: cognition. An innate basis for language? Science, 286
(5448), 2283-4.
Blood, A. J. and Zatorre, R. J. (2001). Intensely pleasurable responses to music correlate with
activity in brain regions implicated in reward and emotion. Proceedings of the National
Academy of Sciences of the United States of America, 98 (20), 11818-11823.
Blood, A. J.; Zatorre, R.J.; Bermudez, P. and Evans, A. C. (1999). Emotional responses to
pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nature
Neuroscience 2 (4), 382-387.
Bookheimer, S. (2002). Functional MRI of language: new approaches to understanding the
cortical organization of semantic processing. Annu Rev Neurosci, 25, 151-88.
Brown, S. Martinez, M. J. and Parsons, L. M. (2004). Passive music listening spontaneously
engages limbic and paralimbic systems. Neuroreport,15 (13), 2033-7.
Brust, J. C. (1980). Music and language: musical alexia and agraphia. Brain, 103 (2), 367-92.
Burns, E. M. (1999). Intervals, scales, and tuning. In: Deutsch, D. (Ed.). In The Psychology
of Music (pp. 215-264). San Diego: Academic Press.
Castellano, M. A.; Bharucha, J. J. and Krumhansl, C. L. (1984). Tonal hierarchies in the
music of north India. J Exp Psychol Gen, 113 (3), 394-412.
Chomsky, N. (1957). Syntactic Structures. The Hague, Netherlands: Mouton & Co..
Cross, I. (2001). Music, cognition, culture, and evolution. Ann N Y Acad Sci, 930, 28-42.
Cross, I. (2003a). Music and evolution: causes and consequences. Contemporary Music
Review, 22, 79-89.
Cross, I. (2003b). Music as a biocultural phenomenon. Ann N Y Acad Sci, 999, 106-11.
Dalla Bella, S. and Peretz, I. (1999). Music agnosias: Selective impairments of music
recognition after brain damage. Journal of New Music Research, 28 (3), 209-216.
Dapretto, M. and Bookheimer, S. Y. (1999). Form and content: dissociating syntax and
semantics in sentence comprehension. Neuron, 24 (2), 427-32.
Dehaene, S.; Dehaene-Lambertz, G. and Cohen, L. (1998). Abstract representations of
numbers in the animal and human brain. Trends Neurosci, 21 (8), 355-61.
Dissanayake, E. I. E. (2000). Antecedents of the temporal arts in early mother-infant
interactions. In: Wallin, N.; Merker, B. and Brown, S. (Ed). The origins of music (pp. 389-
410). Cambridge, MA: MIT Press, 2000.
Dominey, P. F., & Lelekov, T. (2000). Non-linguistic transformation processing in
agrammatic aphasia. Comment on Grodzinsky: The neurology of syntax: Language use with
and without Broca_s area. Behavioral and Brain Sciences, 23 (1), 34.
Drake, C. (1998). Psychological processes involved in the temporal organization of complex
auditory sequences: Universal and acquired processes. Music Perception, 16, 11-26.
Drake, C. and Baruch, C. (1995). From temporal sensitivity do models of temporal
organization: Hypotheses and data on the acquisition of the temporal abilities. Année
Psychologique, 95, 555-569.
Drake, C., & Bertrand, D. (2001). The quest for universals in temporal processing in music.
Annals of the New York Academy of Science 17-27.
Dunbar, R. (1996). Grooming, Gossip and the Evolution of Language. Cambridge, MA:
Harvard University Press.
Eerola, T. (2004). Data-driven influences on melodic expectancy: Continuations in North
Sami Yoiks rated by South African traditional healers. In S. D. Lipscomb, R. Ashley, R. O.
Gjerdingen, & P. Webster (Eds.), Proceedings of the Eighth International Conference of
Music Perception and Cognition (pp. 83–87). Adelaide, Australia: Causal Productions.
Efron, R. (1963). Temporal Perception, Aphasia And D'ej'a Vu. Brain, 86, 403-24.
Eisenberg, L. S.; Shannon, R. V.; Martinez, A. S.; Wygonski, J. and Boothroyd, A. (2000).
Speech recognition with reduced spectral cues as a function of age. J Acoust Soc Am, 107,
2704-10.
Erdonmez, D. and Morley, J. B. (1981). Preservation of acquired music performance
functions with a dominant hemisphere lesion: a case report. Clin Exp Neurol, 18, 102-8.
Eustache, F.; Lechevalier, B.; Viader, F. and Lambert, J. (1990). Identification and
discrimination disorders in auditory perception: a report on two cases. Neuropsychologia, 28
(3), 257-70.
Foxe, J. J. and Schroeder, C. E. (2005). The case for feedforward multisensory convergence
during early cortical processing. Neuroreport, 16 (5), 419-23.
Friederici, A. D.; Meyer, M. and von Cramon, D. Y. (2000). Auditory language
comprehension: an event-related fMRI study on the processing of syntactic and lexical
information. Brain Lang, 75 (3), 289-300.
Geary, D. C. (2001). A Darwinian perspective on Mathematics and Instruction. In: Loveless,
T. (Ed.). The great curriculum debate: How should we teach reading in math? (pp 85-107).
Washington, DC: Brookings Institute.
Geary, D. C.; Huffman, K. J. (2002). Brain and cognitive evolution: Forms of modularity and
functions of mind. Psychological Bulletin, 128, 667-698.
Gil-da-Costa, R.; Braun, A.; Lopes, M.; Hauser, M. D.; Carson, R.E.; Herscovitch, P. and
Martin, A. (2004). Toward an evolutionary perspective on conceptual representation: species-
specific calls activate visual and affective processing systems in the macaque. Proc Natl Acad
Sci U S A, 101 (50), 17516-21.
Gordon, H. W. (1978). Hemispheric asymmetry for dichotically-presented chords in
musicians and non-musicians, males and females. Acta Psychol (Amst), 42 (5), 383-95.
Gosselin, N.; Peretz, I.; Noulhiane, M.; Hasboun, D.; Beckett, C.; Baulac, M. and Samson, S.
(2005). Impaired recognition of scary music following unilateral temporal lobe excision.
Brain, 128 (3), 628-40.
Griffiths, T.D.; Rees, A.; Witton, C.; Cross, P. M.; Shakir, R. A. and Green, G. G. (1997).
Spatial and temporal auditory processing deficits following right hemisphere infarction. A
psychophysical study. Brain, 120 (5), 785-94.
Griffiths, T. D.; Warren, J. D.; Dean, J. L. and Howard, D. (2004). When the feeling's gone: a
selective loss of musical emotion. J Neurol Neurosurg Psychiatry, 75 (2), 344-345.
Habib, M. (2000). The neurological basis of developmental dyslexia: an overview and
working hypothesis. Brain, 123 (12), 2373-99.
Halpern, A. R. and Zatorre, R. J. (1999). When that tune runs through your head: A PET
investigation of auditory imagery for familiar melodies. Cerebral Cortex, 9 (7), 697-704.
Hannon, E. E. and Johnson, S. P. (2005). Infants use meter to categorize rhythms and
melodies: Implications for musical structure learning. Cognitive Psychology, 50 (4), 354-377.
Harrington, D. L.; Haaland, K. Y. and Knight, R. T. (1998). Cortical networks underlying
mechanisms of time perception. J Neurosci, 18 (3), 1085-95.
Hauser, M. D.; Chomsky, N. and Fitch, W. T. (2002). The faculty of language: what is it, who
has it, and how did it evolve? Science, 298 (5598), 1569-79.
Hauser, M. D. and McDermott, J. (2003). The evolution of the music faculty: a comparative
perspective. Nat Neurosci, 6 (7), 663-8.
Haxby, J. V.; Horwitz, B.; Ungerleider, L. G.; Maisog, J. M.; Pietrini, P. and Grady, C.L.
(1994). The functional organization of human extrastriate cortex: a PET-rCBF study of
selective attention to faces and locations. J Neurosci, 14 (11), 6336-53
.
Hyde, K. and Peretz, I. (2004). Brains that are out of tune but in time. Psychological Science ,
vol. 15(5), pp. 356-360
Janata, P. and Grafton, S. T. (2003). Swinging in the brain: shared neural substrates for
behaviors related to sequencing and music. Nat Neurosci, 6 (7), 682-7.
Kessler, E. J.; Hansen, C. and Shepard, R. N. (1984). Tonal schemata in the perception of
music in Bali and the West. Music Perception, 2 (2), 131-165.
Khalfa, S.; Isabelle, P.; Jean-Pierre, B. and Manon, R. (2002). Event-related skin conductance
responses to musical emotions in humans. Neurosci Lett, 328 (2), 145-9.
Kimura, D. (1993). Neuromotor Mechanisms in Human Communication. Oxford: Oxford
University Press.
Koelsch, S.; Gunter, T. C.; von Cramon, D.Y.; Zysset, S.; Lohmann, G. and Friederici, A. D.
(2002a). Bach speaks: A cortical "language-network" serves the processing of music.
Neuroimage, 17 (2), 956-966.
Koelsch, S.; Kasper, E.; Sammler, D.; Schulze, K.; Gunter, T. and Friederici, A. D. (2004)
Music, language and meaning: brain signatures of semantic processing. Nat Neurosci, 7 (3),
302-7.
Krumhansl, C. L. (1990). Cognitive Foundations of Musical Pitch. New York: Oxford
University Press.
Krumhansl, C. L. (1995). Music psychology and music theory: problems and prospects.
Music Theory Spectrum, 17, 53-90.
Krumhansl C. L. (1997). An exploratory study of musical emotions and psychophysiology.
Can J Exp Psychol, 51 (4), 336-53.
Krumhansl C. L. and Juscsyk, P. W. (1990). Infant’s perception of phrase structure in music.
Psychological Science, 1 (1), 70-73.
Krumhansl, C. L.; Toivanen, P.; Eerola, T.; Toiviainen, P.; Jarvinen, T. and Louhivuori, J.
(2000). Cross-cultural music cognition: cognitive methodology applied to North Sami yoiks.
Cognition, 76 (1), 13-58.
Krumhansl, C. L. and Toiviainen, P. (2001). Tonal cognition. Ann N Y Acad Sci., 930, 77-91.
Kuhl, P. K. (2000). A new view of language acquisition. Proc Natl Acad Sci U S A, 97 (22),
11850-7.
Kuhl, P. K.; Tsao, F. M.; Liu, H. M.; Zhang, Y. and De Boer, B. (2001).
Language/culture/mind/brain. Progress at the margins between disciplines. Ann N Y Acad
Sci, 935, 136-74.
Lane, R. D.; Reiman, E. M.; Bradley, M. M.; Lang, P. J.; Ahern, G. L.; Davidson, R. J. and
Schwartz, G.E. (1997). Neuroanatomical correlates of pleasant and unpleasant emotion.
Neuropsychologia, 35 (11), 1437-44.
Lelekov-Boissard, T. and Dominey, P. F. (2002). Human brain potentials reveal similar
processing of non-linguistic abstract structure and linguistic syntactic structure. Neurophysiol
Clin, 32 (1), 72-84.
Lelekov, T.; Dominey, P. F.; ChossonTiraboschi, C.; Ventre- Dominey, J.; Labourel, D.;
Michel, F. and Croisile, B. (2000). Selective Deficits in Processing Syntactic and Abstract
Sequential Structure in Agrammatic Comprehension. Europ J Neurosci, 12 (11), 168.
Lerdahl, F. and Jakendorff, R. A. (1983). A Generative Theory of Tonal Music. Cambridge,
MA: MIT Press.
Levitin, D. J. and Menon, V. (2003). Musical structure is processed in "language" areas of the
brain: a possible role for Brodmann Area 47 in temporal coherence. Neuroimage, 20 (4),
2142-52.
Lieberman, P. (1984). The Biology and Evolution of Language. Cambridge, MA: Harvard
Univ. Press.
Liegeois-Chauvel, C.; Peretz, I.; Babai, M.; Laguitton, V. and Chauvel, P. (1988).
Contribution of different cortical areas in the temporal lobes to music processing. Brain, 121
(10), 1853-67.
Macaluso, E. and Driver, J. (2005). Multisensory spatial interactions: a window onto
functional integration in the human brain. Trends Neurosci, 28 (5), 264-71.
Maess, B.; Koelsch, S.; Gunter, T. C. and Friederici, A. D. (2001). Musical syntax is
processed in Broca's area: an MEG study. Nature Neuroscience, 4 (5), 540-545.
Mavlov, L. (1980). Amusia due to rhythm agnosia in a musician with left hemisphere
damage: a non-auditory supramodal defect. Cortex, 16 (2), 331-8.
Mazziotta, J. C.; Phelps, M. E.; Carson, R. E. and Kuhl, D. E. (1982). Tomographic Mapping
of Human Cerebral Metabolism - Auditory- Stimulation. Neurology, 32 (9), 921-937.
McClelland, J. L. (2001). Cognitive neuroscience. In: Smelser, N.J. and Balte, P.B.(Ed.).
International Encyclopedia of the Social & Behavioral Sciences (pp. 2133-2139). Oxford:
Pergamon Press.
McDermott, J. and Hauser, M. (2004). Are consonant intervals music to their ears?
Spontaneous acoustic preferences in a nonhuman primate. Cognition, 94 (2), B11-21.
Mellet, E.; Bricogne, S.; Crivello, F.; Mazoyer, B.; Denis, M. and Tzourio-Mazoyer, N.
(2002). Neural basis of mental scanning of a topographic representation built from a text.
Cereb Cortex, 12 (12), 1322-30.
Mellet, E.; Tzourio, N.; Crivello, F.; Joliot, M.; Denis, M. and Mazoyer, B. (1996). Functional
anatomy of spatial mental imagery generated from verbal instructions. J Neurosci, 16 (20),
6504-12.
Meltzoff, A. N. (1999). Origins of theory of mind, cognition and communication. J Commun
Disord, 32 (4), 251-269.
Meltzoff, A. N. (2002). Imitation as a mechanism of social cognition: Origins of empathy,
theory of mind, and the representation of action. In: Goswami, U. (Ed.). Handbook of Child
Cognitive Development. Oxford: Blackwell Publishers.
Meltzoff, A. N. and Decety, J. (2003). What imitation tells us about social cognition: a
rapprochement between developmental psychology and cognitive neuroscience. Philos Trans
R Soc Lond B Biol Sci, 358 (1431), 491-500.
Menon, V. and Levitin, D. J. (2005). The rewards of music listening: response and
physiological connectivity of the mesolimbic system. Neuroimage, 28 (1), 175-84.
Mesulam, M. M. (1998). From sensation to cognition. Brain, 121(6), 1013-52.
Murray, M. M.; Molholm, S.; Michel, C. M.; Heslenfeld, D. J.; Ritter, W.; Javitt, D. C.;
Schroeder, C. E. and Foxe, J. J. (2005). Grabbing your ear: rapid auditory-somatosensory
multisensory interactions in low-level sensory cortices are not constrained by stimulus
alignment. Cereb Cortex, 15 (7), 963-74.
Nakamura, S.; Sadato, N.; Oohashi, T.; Nishina, E.; Fuwamoto, Y. and Yonekura, Y. (1999).
Analysis of music-brain interaction with simultaneous measurement of regional cerebral
blood flow and electroencephalogram beta rhythm in human subjects. Neuroscience Letters,
275 (3), 222-226.
Nam, U. (1998). Pitch distribution in Korean court music. Evidence consistent with tonal
hierarchies. Music Perception, 16 (2), 243-247.
Nicholson, K.G.; Baum, S.; Kilgour, A.; Koh, C.K.; Munhall, K. G. and Cuddy, L. L.
(2003). Impaired processing of prosodic and musical patterns after right hemisphere damage.
Brain Cogn, 52 (3), 382-9.
Ohnishi, T.; Matsuda, H.; Asada, T.;, Aruga, M.; Hirakata, M.; Nishikawa, M.; Katoh, A. and
Imabayashi, E. (2001). Functional anatomy of musical perception in musicians. Cerebral
Cortex, 11 (8), 754-760.
Overy, K. (2003). Dyslexia and music. From timing deficits to musical intervention. Ann N Y
Acad Sci, 999, 497-505.
Overy, K.; Nicolson, R. I.; Fawcett, A.J. and Clarke, E. F. (2003). Dyslexia and music:
measuring musical timing skills. Dyslexia, 9 (1), 18-36.
Panksepp J. Hypothalamic regulation of energy balance and feeding behavior. 1974. Nutrition
1995, 11 (4), 402; discussion 401, 403.
Panksepp, J. and Bernatzky, G. (2002). Emotional sounds and the brain: the neuro-affective
foundations of musical appreciation. Behavioural Processes, 60 (2) 133-155.
Papousek, H. (1996). Musicality in infancy research: Biological and cultural origins of early
musicality. In I. Deliège & J. Sloboda (Eds.), Musical beginnings (pp. 37-55). Oxford: Oxford
University Press.
Papousek, M. (1996b). Intuitive parenting: a hidden source of musical stimulation in infancy.
In: I. Deliège, I. & U. Sloboda (Ed.). Musical beginnings. (pp..88-112) Oxford: Oxford
University Press.
Parsons L. M. (2001). Exploring the functional neuroanatomy of music performance,
perception, and comprehension. Ann NY Acad Sci 930, 211-231
Patel, A. D. (2003a). Language, music, syntax and the brain. Nat Neurosci, 6 (7), 674-81.
Patel, A. D. (2003b). Rhythm in language and music: parallels and differences. Ann N Y Acad
Sci, 999, 140-3.
Patel, A. D. and Balaban, E. (2004). Human auditory cortical dynamics during perception of
long acoustic sequences: phase tracking of carrier frequency by the auditory steady-state
response. Cereb Cortex, 14 (1), 35-46.
Patel, A.D. and Daniele, J. R. (2003). An empirical comparison of rhythm in language and
music. Cognition, 87, B35-45.
Patel, A. D., Iversen, J. R., & Rosenberg, J. C. (2006). Comparing the rhythm and melody of
nspeech and music: The case of British English and French. Journal of the Acoustical Society
of America, 119, 3034-3047.
Patel, A. D.; Peretz, I.; Tramo, M. and Labreque, R. (1998). Processing prosodic and musical
patterns: A neuropsychological investigation. Brain and Language, 61 (1), 123-144.
Penhune, V. B.; Zatorre, R. J. and Feindel, W. H. (1999). The role of auditory cortex in
retention of rhythmic patterns as studied in patients with temporal lobe removals including
Heschl's gyrus. Neuropsychologia, 37 (3), 315-331.
Peretz, I. (1990). Processing of Local and Global Musical Information by Unilateral Brain-
Damaged Patients. Brain, 113 (4), 1185-1205.
Peretz, I. (2006). The nature of music from a biological perspective Cognition, vol. 100, pp. 1-
32
Peretz, I. and Babai M. (1992). The role of contour and intervals in the recognition of melody
parts: evidence from cerebral asymmetries in musicians. Neuropsychologia, 30 (3), 277-92.
Peretz, I. and Coltheart, M. (2003). Modularity of music processing. Nature Neuroscience, 6
(7), 688-691.
Peretz, I. and Gagnon, L. (1999). Dissociation between recognition and emotional judgements
for melodies. Neurocase, 5, 21-30.
Peretz, I. and Hebert, S. (2000). Toward a biological account of music experience. Brain and
Cognition, 42 (1), 131-134.
Peretz, I.; Ayotte, J.; Zatorre, R. J.; Mehler, J.; Ahad, P.; Penhune, V. B. and Jutras, B. (2002).
Congenital amusia: A disorder of fine-grained pitch discrimination. Neuron, 33 (2), 185-191.
Peretz, I.; Belleville, S. and Fontaine, S. (1997). Dissociations between music and language
functions after cerebral resection: A new case of amusia without aphasia. Can J Exp Psychol,
51 (4), 354-68. (por que entre colchetes?)
Peretz, I.; Blood, A. J.; Penhune, V. and Zatorre, R. (2001). Cortical deafness to dissonance.
Brain, 124 (5), 928-940.
Phillips, D. P. and Farmer, M. E. (1990). Acquired word deafness, and the temporal grain of
sound representation in the primary auditory cortex. Behav Brain Res, 40 (2), 85-94.
Pinker, S. (1994). The Language Instinct. New York: Harper Perennial.
Pinker, S. (1999). How The Mind Works. New York: W.W. Norton & Company.
Platel, H.; Price, C.; Baron, J. C.; Wise, R.; Lambert, J.; Frackowiak, R. S. J.; Lechevalier, B.
and Eustache, J. (1997). The structural components of music perception - A functional
anatomical study. Brain, 120 (2), 229-243.
Pötzl, O. and Uiberall, H. (1937). Zur Patholgie der Amusie. Wien Klin. Wochenschr, 50,
770-775.
Ramachandran, V. S. and Hirstein, W. (1999). The science of art. Journal of Consciousness
Studies, 6, 15-41.
Ramus F.; Hauser, M. D.; Miller, C.; Morris, D. and Mehler, J. (2000). Language
discrimination by human newborns and by cotton-top tamarin monkeys. Science, 288 (5464),
349-51.
Saffran J.R.; Johnson E.K.; Aslin R.N.; Newport E.L. (1999). Statistical learning of tone
sequences by human infants and adults. Cognition, 70 (1), 27-52.
Saffran, J. R. and Griepentrog, G. J. (2001). Absolute pitch in infant auditory learning:
Evidence for developmental reorganization. Developmental Psychology, 37 (1), 74-85.
Saffran, J. R.; Loman, M. M. and Robertson, R. R. W. (2000). Infant memory for musical
experiences. Cognition, 77 (1), B15-B23.
Saint-Amour, D.; Saron, C. D.; Schroeder, C. E. and Foxe, J. J. (2005). Can whole brain nerve
conduction velocity be derived from surface-recorded visual evoked potentials? A re-
examination of Reed, Vernon, and Johnson (2004). Neuropsychologia, 43 (12), 1838-44.
Sakai, K.; Hikosaka, O.; Miyauchi, S.; Takino, R.; Tamada, T.; Iwata, N. K. and Nielsen, M.
(1999). Neural representation of a rhythm depends on its interval ratio. Journal of
Neuroscience, 19 (22), 10074-10081.
Satoh, M.; Takeda, K.; Nagata, K.; Hatazawa, J. and Kuzuhara, S. (2001). Activated brain
regions in musicians during an ensemble: a PET study. Cognitive Brain Research, 12, 101-
108.
Satoh, M.; Takeda, K.; Nagata, K.; Hatazawa, J. and Kuzuhara, S. (2003). The anterior
portion of the bilateral temporal lobes participates in music perception: a positron emission
tomography study. Am J Neuroradiol, 24 (9), 1843-8.
Saygin, A. P.; Dick, F.; Wilson, S.M.; Dronkers, N.F. and Bates, E. (2003). Neural resources
for processing language and environmental sounds: evidence from aphasia. Brain, 126 (4),
928-45.
Schroeder, C. E. and Foxe, J. (2005). Multisensory contributions to low-level, 'unisensory'
processing. Curr Opin Neurobiol, 15 (4), 454-8.
Schuppert, M.; Munte, T.F.; Wieringa, B.M. and Altenmuller, E. (2000). Receptive amusia:
evidence for cross-hemispheric neural networks underlying music processing strategies.
Brain, 123 (3), 546-559.
Sergent, J.; Zuck, E.; Terriah, S. and Macdonald, B. (1992). Distributed Neural Network
Underlying Musical Sight-Reading and Keyboard Performance. Science, 257 (5066), 106-
109.
Shams, L.; Iwaki, S.; Chawla, A. and Bhattacharya, J. (2005). Early modulation of visual
cortex by sound: an MEG study. Neurosci Lett, 378 (2), 76-81.
Shannon, R. V.; Zeng, F. G.; Kamath, V.; Wygonski, J. and Ekelid, M. (1995). Speech
recognition with primarily temporal cues. Science, 270 (5234), 303-4.
Shimojo, S. and Shams, L. (2001). Sensory modalities are not separate modalities: plasticity
and interactions. Curr Opin Neurobiol, 11 (4), 505-9.
Smith, E. E.; Jonides, J. and Koeppe, R. A. (1996). Dissociating verbal and spatial working
memory using PET. Cereb Cortex, 6 (1), 11-20.
Steinke, W. R.; Cuddy, L.L. and Jakobson, L. S. (2001). Dissociations among functional
subsystems governing melody recognition after right-hemisphere damage. Cognitive
Neuropsychology, 18 (5), 411-437.
Studdert-Kennedy, M. and Mody, M. (1995). Auditory temporal perception deficits in the
reading-impaired: a critical review of the evidence. Psychon Bull Rev, 2, 508-514.
Swisher, L. and Hirsh, I. J. (1972). Brain damage and the ordering of two temporally
successive stimuli. Neuropsychologia, 10 (2), 137-52.
Tallal, P.; Miller, S. and Fitch, R. H. (1993). Neurobiological basis of speech: a case for the
preeminence of temporal processing. Ann N Y Acad Sci, 682, 27-47.
Tasaki, H. (1982). [Perception of music stimuli by the Dichotic Listening Test--studies on
college students making a specialty of music]. No To Shinkei, 34, 1051-7. em colchetes?
ter Keurs, M.; Brown, C.M.; Hagoort, P. and Stegeman, D. F. (1999). Electrophysiological
manifestations of open- and closed-class words in patients with Broca's aphasia with
agrammatic comprehension. An event-related brain potential study. Brain, 122 (5), 839-54.
Tincoff, R.; Hauser, M.; Tsao, F.; Spaepen, G.; Ramus, F. and Mehler, J. (2005). The role of
speech rhythm in language discrimination: further tests with a non-human primate. Dev Sci, 8
(1), 26-35.
Toiviainen, P., & Eerola, T. (2003). Where is the Beat?: Comparison of Finnish and South
African Listeners. In R. Kopiez, A. C. Lehmann, I. Wolther & C. Wolf (Eds.), Proceedings of
the 5th Triennial ESCOM Conference (pp. 501-504). Hanover, Germany: Hanover University
of Music and Drama
Trainor, L. J.; McDonald, K. L. and Alain, C. (2002a). Automatic and controlled processing
of melodic contour and interval information measured by electrical brain activity. Journal of
Cognitive Neuroscience, 14 (3), 430-442.
Trainor, L. J. and Trehub, S. E. (1992). A Comparison of Infants and Adults Sensitivity to
Western Musical Structure. Journal of Experimental Psychology-Human Perception and
Performance, 18 (2) 394-402.
Trainor, L. J.; Tsang, C. D. and Cheung, V. H. W. (2002b). Preference for consonance in 2-
and 4-month-old infants. Music Perception, 20 (2), 187-194.
Tramo, M. J., Cariani, P. A., Delgutte, B., & Braida, L. D. (2001). Neurobiological
foundations for the theory of harmony in western tonal music. Ann N Y Acad Sci, 930, 92-116.
Trehub, S. E. (2003). The developmental origins of musicality. Nat Neurosci, 6 (7), 669-73.
Trehub, S. E.; Schellenberg, E. G. and Kamenetsky, S. B. (1999). Infants' and adults'
perception of scale structure. Journal of Experimental Psychology-Human Perception and
Performance, 25 (4), 965-975.
Trehub, S. E.; Thorpe, L. A. and Trainor, L. J. (1990). Infants' perception of good and bad
melodies. Psychomusicology, 9, 5-19.
Trevarthen, C. (1979). Communication and cooperation in early infancy: a description of
primary intersubjectivity. In: Bullowa, M. (Ed.). Before speech: the beginning of
interpersonal communication (pp.321-347). New York: Cambridge University Press.
Trevarthen, C. (1999). Musicalty and the intrinsic motive pulse: evidence from human
psychobiology and infant communication. Musicae Scientiae, Special Issue, 155-215.
Trevarthen, C. (2000). Autism as a neurodevelopmental disorder affecting communication
and learning in early childhood: prenatal origins, post natal course and effective educational
support. Prostaglandins Leukotrienes and Essential Fatty Acids, 63 (1-2), 41-46.
Wilson, S. J. and Pressing, J. (1999). Neuropsychological assessment and the modeling of
musical deficits. In: Pratt, R.R. and Erdonmez Grocke, D. E. (Eds). Music Medicine and
Music Therapy: Expanding Horizons (pp. 47-74). Melbourne: University of Melbourne Press.
Wilson, S. J.; Pressing, J. L. and Wales, R. J. (2002). Modelling rhythmic function in a
musician post-stroke. Neuropsychologia, 40 (8), 1494-1505.
Zatorre, R. J.; Belin, P. and Penhune, V. B. (2002). Structure and function of auditory cortex:
music and speech. Trends in Cognitive Sciences, 6 (1), 37-46.
Zatorre, R. J., Evans, A. C., & Meyer, E. (1994). Neural Mechanisms Underlying Melodic
Perception and Memory for Pitch. Journal of Neuroscience, 14 (4) 1908-1919.
Zatorre, R. J., Evans, A. C., Meyer, E., & Gjedde, A. (1992). Lateralization of Phonetic and
Pitch Discrimination in Speech Processing. Science, 256 (5058), 846-849.
Zatorre, R. J., Perry, D. W., Beckett, C. A., Westbury, C. F., & Evans, A. C. (1998).
Functional anatomy of musical processing in listeners with absolute pitch and relative pitch.
Proceedings of the National Academy of Sciences of the United States of America, 95 (6),
3172-3177.
Zentner, M. R., & Kagan, J. (1996). Perception of music by infants. Nature, 383 (6595), 29-
29.