música e cérebro: uma janela para a compreensão do ... · tão pouco quanto dois canais...

34
Música e Cérebro: uma janela para a compreensão do funcionamento interativo do cérebro Brain and the Music: a window to the comprehension of the interactive brain functioning Paulo Estêvão Andrade 1 and Elisabete Castelon Konkiewitz 2 1 Departamento de Estudos Pedagógicos do Ensino Fundamental do “Colégio Criativo”, Marilia, São Paulo, Brazil; 2 Faculdade de Ciências da Saúde, Universidade Federal da Grande Dourados, Dourados, Mato Grosso do Sul, Brazil

Upload: trinhkhanh

Post on 08-Nov-2018

214 views

Category:

Documents


0 download

TRANSCRIPT

Música e Cérebro: uma janela para a compreensão do

funcionamento interativo do cérebro

Brain and the Music: a window to the comprehension of the interactive brain functioning

Paulo Estêvão Andrade

1 and Elisabete Castelon Konkiewitz

2

1Departamento de Estudos Pedagógicos do Ensino Fundamental do “Colégio Criativo”, Marilia, São

Paulo, Brazil;

2Faculdade de Ciências da Saúde, Universidade Federal da Grande Dourados, Dourados, Mato Grosso

do Sul, Brazil

Resumo Aqui revisamos os aspectos psicológicos mais importantes da música, seus substratos neurais, sua

universalidade e prováveis origens biológicas e, finalmente, como o estudo da neurocognição e das emoções

associadas à música pode fornecer uma das mais importantes janelas para a compreensão das funções

cerebrais superiores e da mente humana. Iniciamos com os principais aspectos da teoria da modularidade,

suas evidências comportamentais e neuropsicológicas. Então discutimos a psicologia e a neuropsicologia

básicas da música e mostramos como a música e a linguagem estão cognitiva e neurofuncionalmente

interrelacionadas. Em seguida, apresentamos brevemente as evidências contrárias à visão de um alto grau de

especificidade e encapsulamento do módulo putativo da linguagem e como os estudos etnomusicológicos,

psicológicos e neurocognitivos sobre música auxiliam na elucidação dos temas modularidade e evolução e

parecem fornecer subsídios adicionais para uma visão interativa e intermodal dos processos neurocognitivos.

Finalmente iremos argumentar que a noção de amplos módulos não descreve adequadamente a organização

de funções cerebrais complexas, como a linguagem, a matemática, ou a música. Propomos uma visão menos

radical de modularidade, na qual os sistemas modulares são especificados não ao nível de domínios

cognitivos culturalmente determinados, e sim mais ao nível de representações perceptuais e sensório-

motoras.

Palavras-chave: música; linguagem; modularidade; cérebro; evolução; cognição.

1. Introdução

Nos dias atuais, os princípios da seleção natural e sexual estão sendo usados cada vez

mais frequentemente para guiar a pesquisa empírica e teórica nas ciências sociais e do

comportamento e quase toda esta pesquisa tem focado o comportamento social, os

mecanismos cognitivos e outros fenômenos, os quais são vistos como tendo evoluído como

adaptações universais, tais como características do comportamento humano, que são evidentes

em todas as culturas, como, por exemplo, a linguagem (Geary, 2001). Aqui, a idéia central é

de que alguns comportamentos correntes são universalmente presentes nas culturas humanas,

porque isto teria sido evolutivamente eficaz.

Sob a perspectiva da psicologia evolucionista, a seleção natural modela as espécies de

acordo com o seu ambiente não apenas no que se refere às características físicas e

fisiológicas, mas também às comportamentais e qualquer característica que tenha evoluído

com o tempo está provavelmente distribuída universalmente, é encontrada em membros

imaturos da espécie e é processada com certo grau de automatismo.

Considerando a linguagem como exemplo todas as línguas somam aproximadamente

150 diferentes fonemas, mas cada língua humana contém por volta de 25 a 40 unidades

fonéticas, variando de 11 nas línguas polinésias a 141 na língua dos bosquímanos (Pinker,

1994), e, em todas elas seus falantes, incluindo crianças ainda muito novas, distinguem entre

sentenças gramaticais e não gramaticais sem qualquer instrução formal, sugerindo princípios

linguísticos universais definidores da estrutura das sentenças. Isto levou Chomsky a concluir

que as crianças, ao invés de aprenderem a língua apenas por associação e imitação, possuem

um conhecimento implícito tanto dos fonemas quanto das regras gramaticais abstratas, estas

últimas supostamente de natureza bastante genérica, o que lhes permite aprender qualquer

língua à qual forem expostas (Chomsky, 1957). Assim, a linguagem foi um dos primeiros

exemplos daquilo que Fodor (1983) denominou módulo mental na sua teoria da modularidade

da mente, onde um módulo é descrito como domínio-específico (ativado apenas por

informação linguagem-específica), encapsulado quanto à informação (não interfere com os

outros módulos) e inato.

Somando-se às evidências antropológicas (universalidades) e comportamentais/

psicológicas, o modelo modular da mente é também embasado por casos neuropsicológicos.

Lesões cerebrais que causam prejuízos em um domínio, enquanto poupam outros e déficits

congênitos em um domínio na presença de demais funções cognitivas, diferentemente,

completamente normais foram tomados como um forte apoio para circuitos neurais

específicos para alguns domínios, em particular, a linguagem e, mais recentemente, também o

processamento numérico (Dehaene et al., 1998) e a música (Dalla Bella e Peretz, 1999; Peretz

e Coltheart, 2003). Psicólogos evolucionistas incorporaram com muito entusiasmo a hipótese

de que alguns mecanismos cognitivos e seus respectivos substratos neurais podem ser vistos

como características individuais, que foram sujeitas à seleção e aperfeiçoadas na história

evolutiva recente do homem. Na sua visão, alguns mecanismos cognitivos envolvidos na

linguagem, ou na matemática seriam uma adaptação altamente complexa e específica

desenvolvida com admirável efetividade, possuem um componente genético e, finalmente,

não encontram paralelo em animais não humanos (Geary e Huffman, 2002). De acordo com

esta idéia, embora mecanismos homólogos possam existir em outros animais, as versões

humanas foram modificadas pela seleção natural em tal extensão, que podem ser

razoavelmente vistas como constituindo características inéditas (p.ex., inteligência social,

fabricação de instrumentos) (Bickerton, 1990; Dunbar, 1996; Kimura, 1993; Lieberman,

1984).

Entretanto, esta visão modular radical predominante na psicologia evolucionista, não é

um consenso no campo da neurociência cognitiva. Estudos de lesão (Dominey e Lelekov,

2000; ter Keurs et al., 1999), de imagem (Bookheimer, 2002; Koelsch et al., 2002a; Koelsch

et al., 2004) e desenvolvimentais (Bishop, 1999) não apoiam inequivocamente a idéia de que

a linguagem é uma função autônoma alicerçada em sua própria arquitetura estrutural e

funcional. Além disso, para reivindicar que um traço evoluiu unicamente em humanos para a

função de processamento linguístico, deve ser demonstrado que nenhum outro animal possui

este traço particular, porque qualquer traço presente em animais não-humanos não evoluiu

especificamente para a linguagem humana, embora possa ser parte da faculdade da linguagem

e desempenhe um importante papel no processamento linguístico. A este respeito, estudos

recentes têm mostrado que sistemas sensorio-motores e intencionais-conceituais, tidos como

específicos da linguagem também estão presentes em animais não-humanos (Gil-da-Costa et

al., 2004; Hauser et al., 2002).

Uma visão alternativa é o modelo interativo, de acordo com o qual os resultados

cognitivos surgem a partir de interações mútuas e bidirecionais entre populações neuronais

que representam diferentes tipos de informação, e muitas áreas primárias (p. ex., os córtices

visual primário e auditivo primário) parecem participar na representação da estrutura global

de um estímulo, ou de uma situação de resposta, e estas áreas cerebrais, que são tratadas como

específicas de modalidade (unimodais), podem ser moduladas por influências de outras

modalidades (McClelle, 2001). A descoberta de várias interações intermodais nos últimos

anos sugere que estas interações sejam a regra e não a exceção nos processos perceptivos

humanos (Macaluso e Driver, 2005) e até a modalidade visual, que durante muito tempo foi

vista como a modalidade dominante, mostrou-se ser afetada por outras modalidades

sensoriais, incluindo a audição (Foxe e Schroeder, 2005; Murray et al., 2005; Saint-Amour et

al., 2005; Schroeder e Foxe, 2005; Shams et al., 2005; Shimojo e Shams, 2001). Deste modo,

no lugar da noção de que funções cerebrais complexas, como linguagem, matemática, ou

música são organizadas em módulos amplos, específicos e encapsulados, propomos uma

visão menos radical da modularidade, na qual os sistemas modulares são específicos não ao

nível de domínios cognitivos culturalmente determinados, e sim ao nível de representações

perceptuais e sensorio-motoras que são crucialmente relevantes, porém não específicas para

um domínio particular. Uma vez que a música é um estímulo que envolve padrões e

representações auditivas e motoras complexas e também tem um enorme poder em gerar

emoções complexas e estados de humor abstratos, acreditamos que seu estudo ofereça uma

janela apropriada para a compreensão do funcionamento cognitivo superior do cérebro

humano e para observar e avaliar em que extensão o cérebro tem uma organização modular.

2. Aspectos senso-perceptivos e cognitivos básicos da música e da linguagem

A música, assim como a linguagem verbal, é baseada em padrões intencionalmente

estruturados de alturas (tons), durações e intensidades. Ambos os domínios são compostos por

sequências de eventos acústicos básicos, a saber, fonemas (vogais e consonantes) na

linguagem e notas (melodias e acordes) e sons de percussão na música.

As “alturas” (freqüências) na linguagem, determinadas principalmente pela trajetória

das freqüências fundamentais (fo) das vogais, originam a entonação da fala a qual contribui

para demarcar os limites das unidades estruturais, distingue categorias pragmáticas de

expressão vocal e transmite s intencionais e afetivos (Patel et al., 1998). Entretanto, a

percepção de transições acústicas rápidas, isto é, eclosões de ruído ou transições das

freqüências formantes dos tons complexos (ou simplesmente “formantes”) entre consoantes e

vogais (e vice-versa) que ocorrem num espaço de tempo (ou janela temporal) de apenas

dezenas de milissegundos, tem se mostrado empiricamente ser o aspecto mais crucial para a

discriminação de fonemas na linguagem. Por exemplo, quando a informação espectral

(formantes) é grandemente reduzida em uma fala artificialmente degradada, mas com as

variações temporais preservadas, ouvintes adultos e crianças de 10 a 12 anos são ainda

capazes de reconhecer a fala, embora crianças mais novas de 5 a 7 anos requerem uma

resolução espectral significativamente maior. Assim, uma fala artificialmente degradada, com

tão pouco quanto dois canais espectrais, ainda permite uma compreensão relativamente boa,

indicando que a percepção de mudanças temporais é mais relevante para a fala que os s

espectrais (Eisenberg et al., 2000; Shannon et al., 1995).

Diferentemente da fala, a pista (ou deixa) acústica primária na música é a trajetória das

freqüências fundamentais (fo) das notas musicais que caracterizam as melodias. Apesar da

importância da rápida sucessão temporal dos tons para o fraseado musical e a expressividade,

a essência do conteúdo musical se baseia na sucessão de notas, e os intervalos de tempo entre

elas na música são normalmente maiores que na linguagem. Entretanto, é difícil determinar

precisamente os intervalos de tempo comuns à música, pois eles variam extensamente entre

estilos e culturas musicais. Zatorre et al (2002) observou que as notas musicais são

tipicamente muito mais longas na duração que os fonemas consonantes, o que é

definitivamente verdade, e que melodias com durações de notas menores que 160 ms são

muito difíceis de se identificar (Zatorre et al., 2002a). Resumindo, o ponto principal é que os

intervalos de tempo entre fonemas na linguagem verbal são ainda muito mais curtos, na faixa

de 10-39 ms, que entre notas nos ritmos musicais assim como no ritmo supra-segmentar na

linguagem (Phillips e Farmer, 1990).

Interculturalmente, a música envolve não apenas sons padronizados, mas também ação

manifesta e/ou encoberta, e mesmo a escuta ‘passiva’ de música pode envolver ativação de

regiões cerebrais envolvidas com movimento (Janata e Grafton, 2003); portanto, não é mera

coincidência que semanticamente falando, ao contrário da linguagem, a música é tanto

corporificada (envolvendo não apenas som, mas também ação) quanto polissêmica (mutável

nos seus significados e sentidos específicos). Precursores desenvolvimentais da música desde

a fase pré-verbal e ao longo da primeira infância (0 a 6 anos), ocorrem na forma de

comportamentos proto-musicais universais (Trevarthen, 2000), os quais são exploratórios,

enraizados cinestesicamente e intimamente ligados a jogos de vocalização e a movimentos de

todo corpo. Estas peculiaridades universais da semântica musical levaram algumas culturas a

empregar termos para definir música que são muito mais inclusivos do que o conceito

ocidental de música, como a palavra nkwa que para o povo Ibo da Nigéria denota “cantar,

tocar instrumentos e dançar” (Cross, 2001). A música funciona de muitas diferentes formas

através das culturas, desde um meio para comunicação (os Kaluli de Papuásia-Nova Guiné

usavam a música para se comunicarem com os membros mortos), para reestruturação de

relações sociais (as tribos dos Venda da África do Sul usam música para a dança domba de

iniciação das jovens da tribo), para constituir um caminho para cura e para estabelecer

relacionamentos sexuais (tribos do noroeste da China tocam as ‘canções das flores’ hua'er)

(Cross, 2003b). Assim, a música é uma propriedade não apenas das cognições e

comportamentos individuais, mas também de interações sociais inter-individuais. Estudos

desenvolvimentais fornecem ainda mais suporte ao conceito de que a música é corporificada.

Baseados nestes argumentos, aderimos à redefinição mais ampla de música, em termos

tanto de som quanto de movimento bem como as relações entre ambos (Cross, 2001, 2003

a,b). Aqui, a música é definida como uma forma de comunicação baseada no som,

corporificada, não-referencial e polissêmica, cujo conteúdo é principalmente, mas não

exclusivamente, emocional, construído sobre a organização de sons em duas principais

dimensões, nota/altura e tempo.

3. Música, psicologia evolutiva e modularidade

Alguns teóricos (Pinker, 1994; Pinker, 1999) não vêem nenhum papel adaptativo para

a musicalidade humana na evolução, porque ela não tem nenhuma eficácia evidente e

imediata, ou referência fixa consensual (mas veja (Cross, 2001)). Diferentemente da

linguagem, os sons musicais normalmente não se referem a outro objeto externo a ela, seja ele

concreto ou abstrato, o que leva à conclusão precipitada de que a música não tem um valor

adaptativo óbvio; entretanto, esta noção de Pinker (1994) contrasta com o fato de que as

evidências neuropsicológicas, desenvolvimentais e antropológicas são tão fortes a favor da

modularidade da música, quanto para a modularidade da linguagem, incluindo o isolamento

de circuitos neurais específico da música em lesões e déficits musicais congênitos (Andrade e

Bhattacharya, 2003; Peretz e Hebert, 2000; Trehub, 2003). Brevemente, isto inclui a

dissociação dupla entre música e linguagem nos estudos de lesão cerebral (incluindo prejuízos

seletivos de subfunções musicais), déficits congênitos específicos da habilidade musical

chamados de amusia congênita (ausência das habilidades musicais mais básicas, tais como

reconhecimento de variação de altura entre as notas e discriminação de uma melodia da outra,

apesar de habilidades intelectuais e linguísticas intactas), universalidade de características

comuns através de diferentes estilos e culturas musicais (nos princípios subjacentes à melodia,

intervalos consonantes/dissonantes, notas nas escalas musicais e no metro) e, finalmente, as

habilidades musicais precoces em bebês as quais são equivalentes às de adultos no

processamento de melodia, consonância e ritmo.

4. Cognição musical e modularidade

Cognitivamente falando, a dimensão tonal (melodias e acordes) e a temporal (metro e

ritmo) na música podem ser separadas. A dimensão tonal, por sua vez, pode ser vista sob três

aspectos distintos, embora relacionados: (i) a direção geral das notas (do grave para o agudo e

vice-versa), que contribui para o contorno tonal global da melodia, (ii) a distância de altura

exata entre as notas, que define os intervalos musicais locais, e (iii) a combinação simultânea

das notas, que forma os acordes. Podemos reconhecer melodias apenas pela percepção global

do seu contorno tonal, sendo a análise do intervalo local dispensável nesta tarefa global. A

análise do intervalo local, por sua vez, é crucial para discriminar melodias curtas (motivos)

que possuem os mesmos contornos e diferem apenas em uma nota, na construção e

discriminação de escalas (um subgrupo particular de sequências unidirecionais de tons, de

contorno único ascendente ou descendente), cuja diferença se baseia no intervalo exato de

notas entre tons na escala, e, finalmente, na apreciação e análise de acordes, uma vez que eles

são estruturas verticais que não têm um contorno, e se diferenciam uns dos outros na sua

estrutura de intervalo.

Na dimensão tonal, nos focamos especificamente na melodia, porque ela é um

fenômeno humano universal que se destaca proeminentemente na maioria dos tipos de música

através do mundo e que pode ser resgatada a tempos pré-históricos (Eerola, 2004).

Uma fonte inicial de evidência para a visão modular da linguagem e da música

provém dos casos clínicos de agnosia auditiva. As amusias consistem em um subtipo

intrigante de agnosia auditiva seletiva para a música, preservando a percepção e o

reconhecimento de sons lingüísticos e ambientais (natureza, animais, máquinas, etc.). As

amusias podem ser divididas em “aperceptivas”, em que o reconhecimento é prejudicado por

deficits na percepção sem prejudicar as representações musicais de longo-prazo, e

“associativas”, em que o reconhecimento é prejudicado apesar de uma percepção intacta (o

paciente consegue discriminar entre pequenas melodias), nos mesmos moldes da terminologia

oferecida por Lissauer (1989). Em suma, nós podemos dizer que os sistemas de percepção e

reconhecimento musical, em contraste à linguagem que é predominantemente processada no

córtex perisilviano esquerdo (areas frontotemporoparietais em volta da fissure de Sylvius),

mas quase a espelhando, reside principalmente nas regiões frontotemporais direitas cujas

lesões estão associadas com prejuízos seletivos na percepção e/ou reconhecimento musical

que preservam a linguagem (Dalla Bella and Peretz, 1999; Peretz and Coltheart, 2003; veja

Andrade, 2004).

Na organização temporal, pesquisadores têm concordado com uma divisão conceitual

entre métrica global e ritmo local na música (Drake, 1998). Metro é a percepção global de

uma invariância temporal de pulsos/batidas recorrentes, fornecendo unidades de duração pelas

quais reconhecemos uma marcha (acento maior na primeira de duas batidas), ou uma valsa

(acento maior na primeira de três batidas), e também funciona como um “relógio cognitivo”

que nos permite avaliar a duração exata (em números de batidas) dos eventos auditivos

(Wilson e Davey, 2002). Ritmo é a percepção local da proximidade temporal, ou grupamento

de eventos auditivos adjacentes que formam unidades maiores. Este grupamento temporal que

leva à percepção de ritmo pode ocorrer somente baseando-se na estimativa da duração das

notas e, consequentemente, não necessita da avaliação exata da duração da nota que é

realizada por meio do metro (Penhune et al., 1999; Wilson et al., 2002).

A existência de estratégias cognitivas distintas, local e global, na percepção musical,

tanto na dimensão tonal quanto na temporal, são suportadas por estudos comportamentais

(Gordon, 1978; Peretz e Babai, 1992; Tasaki, 1982), neuropsicológicos (Liegeois-Chauvel et

al., 1998; Peretz, 1990; Schuppert et al., 2000) e de neuroimagem funcional (Mazziotta et al.,

1982; Platel et al., 1997). De acordo com estudos de lesão, estruturas do hemisfério direito,

principalmente no giro temporal superior (STG), estão crucialmente envolvidas na percepção

fina das variações tonais (entre as notas) na melodia, enquanto que estruturas contralaterais no

hemisfério esquerdo estão crucialmente envolvidas na percepção de transições acústicas

rápidas, como as que ocorrem na percepção das combinações vogal/consoante (Zatorre et al.,

2002).

É importante notar que a música e a linguagem compartilham mecanismos cognitivos

em ambas as dimensões, tonal (entonação e contornos tonais) e temporal (particularmente o

ritmo) (Patel e Balaban, 2004; Patel et al., 1998), e, consequentemente, suas dissociações são

relativas ao invés de absolutas. Em geral, os córtices auditivos do STG direito estão

crucialmente envolvidos na percepção tonal fina (variações tonais sutis), ao passo que os

córtices auditivos contralaterais no GTS esquerdo têm um papel crucial na percepção das

rápidas transições acústicas da ordem de algumas dezenas de milissegundos, como aquelas

que ocorrem nas combinações “consoante-vogal" (Zatorre et al., 2002). Entretanto, a

dominância direita para o processamento tonal ocorre inclusive na percepção fonética das

entonações das vogais (Zatorre et al., 1992).

4.1. Evidências contra a modularidade I: a linguagem e a música se encontram no

cérebro

A habilidade inacreditável de bebês de discriminar virtualmente todos os contrastes

fonéticos de todas as línguas, inicialmente tomada como evidência de detectores inatos de

características fonéticas especificamente evoluídos para a fala (Kuhl et al., 2000, p. 11.851),

também foi encontrada quando os estímulos eram sons não-linguísticos, que imitavam as

características acústicas da fala, e esta percepção categórica dos fonemas também foi

encontrada em várias espécies animais, e macacos, incluindo a percepção das pistas

prosódicas da fala (Ramus et al., 2000). Esta capacidade discriminativa poderia ser explicada

por mecanismos cognitivos de domínio geral, ao invés de mecanismos que lidam

exclusivamente com a linguagem (Kuhl et al., 2001). Adicionalmente, ao contrário da visão

de modularidade, que argumenta que a experiência lingüística produz ou a manutenção, ou a

perda dos detectores fonéticos, novas evidências mostram que crianças exibem mudanças

desenvolvimentais genuínas, e não a mera manutenção de uma habilidade inicial. Aos 7

meses, bebês americanos, japoneses e taiwaneses se desempenharam igualmente bem na

discriminação entre sons das línguas nativa e não-nativa, enquanto que aos 11 meses de idade

eles mostraram um aumento significante na percepção fonética na língua nativa e uma queda

na percepção de fonemas de línguas estrangeiras (Kuhl et al., 2001). Uma visão emergente

sugere que bebês se engajam em uma nova forma de aprendizado, na qual a informação

lingüística é mapeada em detalhes pelo cérebro do bebê. O conceito central é de que

simplesmente ouvindo linguagem os bebês podem adquirir informação sofisticada e mapear

perceptivamente aspectos críticos da língua ambiente no primeiro ano de vida, mesmo antes

que eles possam falar, e estas habilidades perceptivas são universais, mas não domínio-

específicas ou espécie-específicas. Em outras palavras, contrariamente à visão de que o

desenvolvimento é baseado na seleção e na manutenção de um subgrupo daquelas unidades

acionadas pela informação lingüística, com subseqüente perda daquelas que não são

estimuladas, os bebês exibem uma mudança desenvolvimental genuína; além disso, adultos

submetidos a técnicas que minimizam os efeitos da memória e do treinamento extensivo

podem aumentar seu desempenho em fonemas de línguas não-nativas, indicando que não há

uma perda imutável das habilidades fonéticas para unidades não-nativas (Kuhl, 2000).

Evidências neuropsicológicas recentes mostram que a área de Wernicke na junção

temporoparietal, envolvendo a parte posterior do STG (área de Brodman BA 22) e “partes

imediatamente adjacentes da região parietal inferior” (BA 39/40) (Mesulam, 1998, p. 1029),

tradicionalmente considerada uma área específica da linguagem para o processamento

fonético e semântico, foi até mais importante no processamento de sons não-verbais que no de

sons verbais, sugerindo que o processamento semântico de eventos auditivos, sejam sons

verbais, ou não-verbais, se baseia em recursos neurais compartilhados (Saygin et al., 2003).

Finalmente, a percepção do contorno tonal também é usado na linguagem (Zatorre et

al., 1992), e, quando prejudicado, os déficits podem se estender à prosódia linguística,

particularmente afetando as entonações da linguagem (Nicholson et al., 2003; Patel et al.,

1998; Steinke et al., 2001). De fato, déficits prosódicos de linguagem previamente verificados

em pacientes com lesão cerebral direita com amusia são também encontrados em indivíduos

diagnosticados com amusia congênita (Ayotte et al., 2002). Tomadas juntas, as evidências

comportamentais, desenvolvimentais e neuropsicológicas claramente confirmam que a

especificidade cerebral para a música ou para a linguagem é mais relativa que absoluta. A

dissociação relativa entre a música e a linguagem se deve ao fato de que os contornos de

entonação na fala normalmente usam variações de altura maiores que a metade de uma oitava

para transmitir informação relevante, enquanto que a maioria das melodias usa pequenos

intervalos, na ordem de 1/12 (a diferença de altura/nota de um semitom correspondente à

diferença entre duas teclas adjacentes no piano), ou 1/6 (a diferença de altura/nota de um tom

correspondente à diferença entre duas teclas separadas por uma tecla) de uma oitava. Portanto,

um sistema de percepção de notas/alturas degradado pode comprometer a percepção musical,

mas deixar aspectos básicos da prosódia da fala intactos. A amusia congênita é esclarecedora

aqui.

Nas tarefas de discriminação tonal, sujeitos amúsicos congênitos são incapazes de

detectar um pequeno desvio tonal tanto em tons isolados como em sequências monotônicas e

isocrônicas, tais como mudanças de nota menores que dois semitons (a acuidade normal é da

ordem de um quarto de semitom), um desempenho que não pôde ser melhorado mesmo com

a prática (Peretz et al., 2002), mas eles desempenham como os controles na detecção de um

leve desvio de tempo no mesmo contexto (Ayotte et al., 2002). Isto indica que os seus déficits

parecem residir na dimensão tonal. Em contraste, variações tonais na fala são bem percebidas

pelos indivíduos amúsicos congênitos, porque elas são muito grosseiras comparadas àquelas

usadas na música. O aumento final do tom que é indicativo de um questionamento é

normalmente maior que a metade de uma oitava (a distância tonal entre duas notas no piano

separadas por doze teclas). Estes fatos são consistentes com o conceito de que, ao invés de ser

um déficit específico do domínio musical, a amusia congênita reflete um problema mais

elementar no processamento de baixo nível da informação auditiva, resultando em déficits na

discriminação tonal fina da mesma forma que muitas dificuldades de processamento

lingüístico surgem de deficiências na resolução temporal auditiva (Zatorre et al., 2002).

Por outro lado, embora haja alegações de que os prejuízos de linguagem surgem de

falhas específicas ao processamento lingüístico (Studdert-Kennedy e Mody, 1995),

deficiências de linguagem podem também resultar de um problema mais elementar na

percepção de mudanças temporais acústicas refinadas (Tallal et al., 1993). De fato,

dificuldades de processamento de tempo nas suas diferentes dimensões são uma característica

admiravelmente universal na dislexia, um déficit de linguagem congênito presente em 5-10%

das crianças em idade escolar, que falham em aprender a ler, apesar da inteligência normal,

ambiente e oportunidades de educação adequadas, e que provavelmente se deve à dificuldade

no hemisfério esquerdo de integrar estímulos em mudança rápida (Habib, 2000).

Entretanto, é importante reiterar que, juntamente com a amusia congênita, temos as

agnosias associativas adquiridas nas quais os pacientes não reconhecem melodias antes

familiares e estão prejudicados na codificação tonal (detectar notas desafinadas, ou fora da

tonalidade) propositadamente inseridas nas melodias a despeito de completamente

preservadas a percepção tonal fina, a discriminação melódica e a linguagem (Peretz, 1996;

Peretz et al., 1994). Ambos os casos, de amusia congênita e amusia associativa adquirida,

representam casos espetaculares de isolamento dos componentes musicais no cérebro cujo

quadro comum é o prejuízo na codificação tonal decorrente de alterações de um circuito

neural frontotemporal direito (Peretz, 2006), um prejuízo que parece estar ligado mais à perda

da sensibilidade à dissonância do que à consonância (Peretz et al., 2001; Tramo et al., 2001),

ambas sensibilidades já presentes em bebês de apenas 2 meses e meio de idade (Trainor et al.,

2002b). Entretanto, é importante notar que diferentemente das amusias associativas adquiridas

a amusia congênita também se caracteriza por prejuízos na percepção tonal fina, a qual parece

ser fundamental para a percepção de consonância (Tramo et al., 2002), o que pode ser

devastador para o desenvolvimento da codificação tonal e das representações musicais de

longo prazo nos amúsicos congênitos, mas não para o desenvolvimento das habilidades

lingüísticas (Hyde & Peretz, 2004; Peretz, 2006). Embora as evidências apontam que a

música e a linguagem pareçam compartilhar mecanismos cognitivos e substratos neurais na

percepção tonal fina, há um consenso emergente de que esta habilidade é de crucial relevância

para o desenvolvimento de um possível “módulo tonal” no córtex frontotemporal direito e da

representações musicais de longo prazo, mas não para as habilidades lingüísticas (Peretz,

2006).

Juntos, estes achados suportam a noção de que pelo menos um componente cognitivo

da música, a codificação tonal, poderia constituir um “modulo tonal” dentro de um conceito

mais amplo de modularidade proposto por Barret e Kurzban (2006), de acordo com o qual a

especificidade de domínio é melhor caracterizada não pelo encapsulamento, mas sim em

termos de especialização funcional, isto é, mecanismos computacionais que evoluíram para

processar estímulos biologicamente relevantes de forma especializada baseada nos aspectos

formais do estímulo, tal como a percepção fina das variações de tons (percepção tonal fina), e

não no seu “conteúdo” ou “significado”, tal como uma melodia. Assim, por ser crucial

somente para a percepção e desenvolvimento das habilidades de processamento melódico,

particularmente a codificação tonal, a percepção tonal final pode ser considerada uma

especialização functional para a música, que não é totalmente encapsulada ou desencapsulada

em um sentido absoluto (Barret and Kurzban, 2006, p.631; veja também Peretz, 2006).

Portanto, embora a música e linguagem pareçam estar claramente dissociadas em termos

funcionais ao nível da percepção tonal fina, isto não significa que ambos os domínios não

possam interagir na dimensão tonal.

4.2. Evidências contra a modularidade II: o ritmo na música e na linguagem

Consistentemente com a nossa argumentação de que é no domínio temporal que há a

mais conspícua e maior proporção de compartilhamento entre a linguagem e a música, os

déficits temporais das crianças disléxicas não são confinados à linguagem, mas também se

estendem ao domínio musical, e de uma forma interessante: eles parecem se restringir à

dimensão temporal (metro e ritmo) da música, preservando a dimensão tonal. Esta ligação

entre déficits lingüísticos e déficits musicais temporais nas crianças disléxicas levou a uma

hipótese testável baseada em lições musicais em grupo, consistindo em canto e brincadeiras

de ritmo, as quais, embora aparentemente não ajudassem a ler, tiveram um efeito positivo

tanto nas habilidades fonológicas, quanto nas de soletração (Overy, 2003; Overy et al., 2003).

Estudos com crianças com idade entre 4-5 anos mostram que a música tem um efeito

significativamente positivo em ambas a consciência fonológica e o desenvolvimento da

leitura, de modo que as habilidades de percepção musical podem predizer confiavelmente a

habilidade de leitura (Anvari et al., 2002). Assim, as dissociações entre linguagem e música

na dimensão temporal são muito menos consistentes que na dimensão tonal.

A característica temporal mais importante é o ritmo, o qual tem se mostrado mais

frequentemente prejudicado em casos de lesões no hemisfério esquerdo (Efron, 1963;

Mavlov, 1980; Swisher e Hirsh, 1972; Brust, 1980; Eustache et al., 1990) que, por sua vez, é

mais ativado nos estudos de neuroimagem durante tarefas rítmicas (Platel et al., 1997;

Parsons, 2001; Sakai et al., 1999). Se o ritmo é preferencialmente processado no hemisfério

esquerdo, o metro, assim como tarefas rítmicas que requerem a extração das durações exatas

dos eventos auditivos, ambos são mais frequentemente prejudicados por lesões no lobo

temporal direito (Penhune et al., 1999) e/ou lesões fronto-parietais direitas (Harrington et al.,

1998; Steinke et al., 2001), um padrão também consistente com estudos de neuroimagem

(Parsons, 2001; Sakai et al., 1999). De fato, lesões do hemisfério esquerdo que induzem à

afasia de Broca (Efron, 1963; Mavlov, 1980; Swisher e Hirsh, 1972), ou à afasia de condução

(Brust, 1980; Eustache et al., 1990), ou à afasia anômica (Pötzl e Uiberall, 1937) também

provavelmente induzirão a distúrbios musicais, principalmente no domínio temporal.

Normalmente, os déficits na discriminação dos ritmos musicais, ou ordenação temporal são

devido a lesões no hemisfério esquerdo, principalmente em regiões anteriores afetando o

córtex pré-frontal, e têm sido associados a déficits na memória de trabalho verbal (Erdonmez

e Morley, 1981), na memória fonológica de curto prazo (Peretz et al., 1997), e à afasia de

Broca (Efron, 1963; Swisher e Hirsh, 1972), embora lesão pré-frontal esquerda também cause

déficits na escuta ativa de variações de notas, tais como contorno e intervalos tonais (Ayotte

et al., 2000), ou ao se julgar se uma comparação de pares de tons foi mais alta, ou mais baixa

que o par de tom padronizado (Harrington et al., 1998). Estudos de imagem em indivíduos

saudáveis fornecem evidência adicional de que o ritmo é processado no hemisfério esquerdo,

mais especificamente nas áreas frontais inferiores esquerdas, tais como a área de Broca.

Interessantemente, as relações entre música e linguagem na dimensão temporal são

consistentes com uma noção há muito tempo compartilhada entre os musicólogos e que

recentemente tem recebido forte suporte empírico: o ritmo da música de uma nação reflete o

ritmo de sua língua. Novos métodos têm permitido a comparação direta entre ritmo e melodia

na fala e na música, e entre diferentes línguas tais como o inglês britânico e o francês (Patel,

2003b; Patel and Daniele, 2003), e revelam que o maior contraste de durações entre vogais

sucessivas no inglês versus o francês se refletiu no maior contraste de durações entre as notas

da música inglesa versus a música francesa. Mas as línguas não diferem somente na sua

prosódia rítmica (padrões temporais e de acentuação), mas também na forma como as

entonações vocais variam ao longo das frases e sentenças (a “entonação” se refere à melodia

da fala), e, recentemente, foi descoberto que os intervalos entre as notas na música de uma

dada cultura reflete a entonação de sua língua. Em suma, a música instrumental de fato reflete

a prosódia da lingual, mostrando assim que a linguagem que nós falamos pode influenciar a

música que nós produzimos (Patel et al., 2006).

4.3. Evidências contra a modularidade III: sintaxe na música e linguagem

A música, tal como a linguagem, é uma forma de comunicação acústica baseada em

um grupo de regras capazes de combinar um número limitado de elementos perceptivos

discretos (tons/notas na música, e fonemas na linguagem) em um número infinito de maneiras

(Lerdahl and Jakendorff, 1983). Em ambos os domínios, a organização seqüencial de

elementos auditivos básicos consiste em um forte sistema baseado em regras de uma natureza

generativa (ou gerativa), onde a complexidade é construída pelas regras de permutações de

um número limitado de elementos discretos permitindo-se uma gama potencialmente infinita

de estruturas de alta ordem tais como sentenças, temas e tópicos, etc., e esta capacidade

combinatória generativa também é referida como “recursão” ou “infinidade discreta” (Hauser

et al., 2002). O grupo de elementos que governam a combinação de elementos estruturais

discretos (fonemas e palavras tons/notas e acordes) em sequências é chamado de sintaxe. As

respostas cerebrais que refletem o processamento de sequências de acordes são similares

(embora não idênticas) à atividade cerebral eliciada durante a percepção da linguagem tanto

em sujeitos músicos quanto não músicos (Koelsch et al., 2002a; Patel et al., 1998).

O compartilhamento dos mecanismos envolvidos na abstração de regras presentes na

sintaxe musical e linguística é notável. Estudos recentes revelam respostas cerebrais

relacionadas com o processamento sintático localizadas na área de Broca (BA 44/45) e sua

parte homóloga no hemisfério direito (Koelsch et al., 2002a; Maess et al., 2001), áreas bem

conhecidas por estarem envolvidas no processamento da sintaxe linguística (Dapretto and

Bookheimer, 1999; Friederici et al., 2000), sugerindo, assim, o compartilhamento de

mecanismos subjacentes ao processamento sintático entre música e linguagem (Levitin and

Menon, 2003; Patel, 2003a). A detecção de desvios musicais levaram à ativação bilateral de

áreas notadamente envolvidas na sintaxe lingüística, tais como regiões frontais

compreendendo o córtex insular antero-superior e áreas inferofrontais laterais, mas também

de partes posteriores do STG, incluindo a área de Wernicke (BA 22) e o plano temporal (PT,

BA 42) (Koelsch et al., 2002, veja Andrade, 2004); estas ativações indicam que a informação

auditiva é processada por estruturas cerebrais que são menos domínio-específicas do que

previamente se acreditava. Estudos recentes investigando déficits cognitivos na afasia

agramática (Dominey and Lelekov, 2000; Lelekov et al., 2000; ter Keurs et al., 1999) em

conjunção com dados obtidos em sujeitos saudáveis (Lelekov-Boissard and Dominey, 2002)

também sugerem que o papel do córtex frontal inferior na sintaxe linguistic esta mais

relacionado ao processamento de regras abstratas, linguísticas e não linguísticas. Por exemplo,

pacientes agramáticos também apresentam déficits não lingüísticos tais como no

processamento de sequência de letras, como “ABCBAC” e “DEFEDF”, as quais possuem

diferente ordenação ou estrutura serial, mas compartilham a mesma estrutura abstrata

“123213”. Reciprocamente, ter Keurs e colaboradores (1999) mostraram que pacientes

afásicos com agramatismo não apresentaram um déficit específico para palavras de “classe

fechada” ou “gramaticais”, mas, ao invés disso, possuíam um déficit relacionado à memória

de trabalho evidenciado pela disponibilidade atrasada ou incompleta da informação da classe

das palavras (fechadas/gramaticais ou abertas/substantivos).

Estes dados não são completamente surpreendentes se nós levarmos em consideração

que as sequências lingüísticas e musicais são criadas por princípios combinatórios que operam

em múltiplos níveis, tais como na formação das palavras, frases e sentenças na linguagem, e

de acordes, progressão de acordes e tonalidades na música (estrutura harmônica), fazendo

com que as percebamos em termos de relações hierárquicas que contêm padrões organizados

de significado. Na linguagem, um significado suportado pela sintaxe é “quem fez o quê a

quem”, que é a estrutura conceitual de referência e predicação nas sentenças; na música, um

significado é suportado pelos padrões de tensão e resolução (relaxamento) experenciados

durante o desenrolar da música no tempo (Lerdahl and Jakendorff, 1983); para uma revisão

veja Patel, 2003a).

Juntas, estas evidências de compartilhamento entre música e linguagem são

consistentes com achados recentes de que bebês humanos e macacos sagüis são capazes de

discriminar línguas diferentes que pertencem a diferentes classes de prosódia rítmica, mas não

discriminam entre línguas de mesma classe rítmica (Ramus et al., 2000; Tincoff et al., 2005).

Estas evidências levaram a uma proposta mais geral de que os bebês constroem o

conhecimento gramatical por meio do “bootstrapping prosódico”, expressão inglesa derivada

da palavra bootstrap (alça de calçar botas), uma expressão idiomática que significa puxar-se

pelos próprias alças das botas, puxar-se a si mesmo, isto é, progredir sem ajuda externa, com

o próprio esforço e facilitação interna. Na proposta do botstrapping prosódico seria

principalmente por meio da percepção rítmica que os bebês desenvolvem a percepção e

análise dos componentes fonológicos e sintáticos da língua (veja Tincoff et al., 2005). Vale

notar que a proposta do “bootstrapping prosódico” é consistente também com a evidência

neuropsicológica aqui reportada da freqüente co-ocorrência de sintomas de agramatismo com

déficits rítmicos em pacientes com afasias de Broca e de condução (Efron, 1963; Mavlov,

1980; Swisher and Hirsh, 1972; Brust, 1980; Eustache et al., 1990), e com a noção de

interação entre música e linguagem nos domínios temporal e sequencial e de

compartilhamento de mecanismos cognitivos no processamento sintático.

5. Cognição musical e processamento intermodal

Ao discutir o compartilhamento dos mecanismos neurocognitivos entre música e

linguagem, juntamente com o fato de a música ser corporificada e polissêmica, nós

automaticamente adotamos uma abordagem intermodal da cognição musical. Como já

apontamos, a música, de fato, é ação tanto quanto é percepção. Simplesmente, a música nos

‘move’. Quando alguém executa música, ou percute, ou dança, ou canta, juntamente com a

música, a experiência sensorial dos padrões musicais está intimamente acoplada à ação.

Ao considerarem-se os dados de neuroimagem para inferir eventuais sobreposições

entre processamento musical e outros domínios, é importante manter em mente que padrões

semelhantes de ativação cerebral sozinhos não são necessariamente aceitos como

sobreposição, porque vias neurais distintas, porém entremeadas e muito próximas uma da

outra, podem ser vistas como a mesma ativação, refletindo os limites de resolução de voxels

de 3 x 3 x 4 mm do método de ressonância magnética nuclear funcional (fMRI). Portanto,

nossas comparações de dados de neuroimagem usados para arguir a favor da sobreposição

entre a música e outros domínios foram baseados principalmente, mas não apenas, nos

critérios adotados na meta-análise sobre processamento espacial auditivo conduzida por

Arnott et al. (2004). Os autores analisaram dados de artigos revistos por pares sobre estudos

de processamento auditivo, incluindo 27 estudos sobre processamento de sons não-espaciais e

11 sobre processamento de sons espaciais, que incorporaram imagens ou de tomografia por

emissão de pósitron (PET) ou de fMRI com adultos normais, saudáveis. Nós então

comparamos ativações de muitos estudos de neuroimagem sobre percepção musical com as

ativações relatadas durante o processamento auditivo espacial no estudo de Arnott et al.

(2004), frequentemente com limites de resolução de ~ 4 mm cúbicos. Este mesmo critério foi

aplicado nas comparações entre música e linguagem. Quando, finalmente, agregamos ambos

os dados de imagem e de lesão, isto é, mostrando a mesma sobreposição ou de ativações

cerebrais na neuroimagem de sujeitos saudáveis e dos padrões de déficit e de função cognitiva

preservada nos dados de lesão, nós interpretamos esta evidência como um forte suporte ao

processamento intermodal.

Tem-se observado sobreposições significativas entre os substratos neurais envolvidos

em tarefas visuo-espaciais e de percepção musical. Por exemplo, áreas corticais occipitais e

fronto-parietais, tradicionalmente envolvidas em tarefas visuo-espaciais, incluindo o pré-

cuneus nos lobos parietais mediais chamado “olho da mente” por estar crucialmente

envolvido na geração de imagens visuo-espaciais (Mellet et al., 2002; Mellet et al., 1996),

estão entre as regiões mais frequentemente e mais significativamente ativadas na percepção

de música, seja em ouvintes leigos seja em músicos (Mazziotta et al., 1982; Nakamura et al.,

1999; Platel et al., 1997; Satoh et al., 2001; Satoh et al., 2003; Zatorre et al., 1994; Zatorre et

al., 1998), e até em sujeitos imaginando mentalmente uma melodia (Halpern e Zatorre, 1999).

Estes dados de imagem são consistentes com três casos bem documentados de amusia que

relataram lesões nas áreas parietais e déficits acompanhantes nas tarefas espaço-temporais

(Griffiths et al., 1997; Steinke et al., 2001; Wilson e Pressing, 1999), e casos de déficits

associados em tarefas de percepção tonal e em tarefas visuo-espaciais em pacientes com lesão

pré-frontal esquerda (Harrington et al., 1998). Ativações frontais bilaterais e frontais

inferiores, principalmente em áreas pré-motoras frontais (BA 6), áreas pré-frontais

dorsolaterais (BA 8/9), assim como áreas frontais inferiores como a de Broca (BA 44/45),

ínsula, e córtices frontais mais anteriores medial e inferior (BA 46/47), são frequentemente

observados tanto em não-músicos (Platel et al., 1997; Zatorre et al., 1994), quanto em

músicos (Ohnishi et al., 2001; Parsons, 2001; Zatorre et al., 1998). Ativações do circuito pré-

motor e parietal posterior nas tarefas de notas não são surpreendentes se levarmos em conta

que estudos de neuroimagem funcional em humanos sugerem o envolvimento de circuitos

pré-motores do córtex parietal posterior não apenas no controle motor, mas também em

processos cognitivos, tais como tarefas mentais de construção de objetos (Mellet et al., 1996)

e outras tarefas visuo-espaciais envolvendo memória de trabalho, implícita (Haxby et al.,

1994) ou explicitamente (Smith et al., 1996).

Quando não-músicos foram solicitados a dizer se a segunda de duas melodias

representa uma mudança ou não, todos os focos de ativação estavam no hemisfério esquerdo

com as ativações mais significativas no pré-cuneus/cuneus esquerdo (BA 18/19/31), uma

região tradicionalmente envolvida em tarefas de imaginação espacial (Platel et al., 1997).

Poderia ser argumentado que tarefas de percepção tonal atenta e analítica impõem demandas

na imaginação visual em termos de ‘alto’ e ‘baixo’ em relação a uma linha base de notação

musical mental, ou uma partitura musical mental, o que foi sugerido pelos próprios sujeitos

não-músicos durante seus relatos (Platel et al., 1997). Ativações do lobo parietal superior

esquerdo, particularmente na junção parieto-occipital, ocorreram quando pianistas

profissionais estavam lendo partituras sem ouvir, ou executar música (Sergent et al., 1992), e

isto foi interpretado como a participação do sistema visual dorsal no processamento espacial

da leitura das partituras, uma vez que a notação musical é baseada na distribuição espacial e

na separação relativa das alturas entre as notas nas partituras, formando ‘intervalos de notas’.

Outros estudos de imagem têm relatado frequentemente ativação dos lobos parietais

superiores (Zatorre et al., 1998) e do pré-cuneus também em tarefas perceptuais (Satoh et al.,

2001). Halpern e Zatorre (1999) encontraram que músicos, quando solicitados a reproduzir

mentalmente uma melodia não familiar que acabaram de ouvir, produziram significativas

ativações no córtex pré-frontal inferior esquerdo (BA 44, 47, 10), e ativações bilaterais no

giro frontal superior/médio e córtex pré-motor (BA 6), córtex visual de associação (BA 19),

córtex parietal e pré-cuneus (BA 40/7), mas nenhuma ativação foi encontrada nos lobos

temporais. Tanto músicos com ouvido absoluto (AP), quanto com ouvido relativo (RP) ambos

mostraram ativações bilaterais dos córtices parietais ao julgarem um intervalo musical, mas

com ativação parietal esquerda mais forte em músicos com RP, cujas estratégias cognitivas

contam mais com a manutenção da informação tonal na memória de trabalho auditiva para a

comparação entre notas em uma partitura mental (Zatorre et al., 1998), enquanto que músicos

com ouvido absoluto contam mais com a associação verbal e memória de longo prazo

(Zatorre et al., 1998).

Finalmente, uma importante revelação dos estudos de imagem sobre percepção

musical e produção são as ativações significativas do cerebelo (Parsons, 2001; Zatorre et al.,

1994) tanto nas tarefas de notas como nas de rítmo.

Como apontaram Janata e Grafton (2003), três domínios de pesquisa em psicologia e

neurociência são particularmente pertinentes para o entendimento das bases neurais de

comportamentos seqüenciados na música e estes são cronometragem, atenção e aprendizado

de sequências. De fato, a música pode ser pensada como uma sequência de eventos

padronizados no tempo e em uma “representação espacial abstrata” (feature space) que é

multidimensional e consiste de ambas as informações sensorial e motora. Padrões motores

determinam como posicionamos efetores no espaço, tais como dedos nas teclas do piano,

enquanto que padrões sensoriais refletem a organização dos objetos ou eventos auditivos, tais

como as notas ou série de notas no tempo quando ouvimos melodias ou acordes,

respectivamente. Produção de sequências espaciais e temporais em humanos produz ativações

em muitas regiões cerebrais, incluindo o cerebelo, a área suplementar motora (SMA), o córtex

pré-motor (PMC), gânglios da base e córtex parietal, os quais são ricamente interconectados.

Com base em uma cuidadosa meta-análise Janata e Grafton (2003) argumentaram que parece

haver um circuito central subjacente a comportamentos seqüenciados, no qual diferentes

níveis de complexidade mostram sobreposição considerável em algumas regiões tais como o

córtex sensório-motor (SMC), correspondente aos giros pré-central e pós-central que contêm

as áreas motoras e somatosensoriais primárias, e a SMA, enquanto que níveis mais altos de

complexidade estão relacionados com sobreposição e ativações maiores no cerebelo, gânglios

da base, tálamo, PMC, córtex pré-frontal ventro-lateral (VLPFC), sulco intraparietal (IPS) e

pré-cuneus. Todas estas regiões também foram relacionadas com o processamento musical

(Janata e Grafton, 2003).

Dado que a música inerentemente consiste de sequências auditivas e informação

motora, é esperado encontrar mecanismos cognitivos e circuitos neurais compartilhados entre

música e comportamento seqüenciado.

6. Universalidades na música

Pesquisas com crianças e comparações interculturais são as duas principais abordagens

no estudo da contribuição dos aspectos universais e culturais na percepção musical. A

peesquisa com crianças ajuda a esclarecer as predisposições no processamento musical que

transcendem a cultura e na descrição de como as propriedades específicas da cultura se

desenvolvem (para uma revisão vide (Trehub, 2003)). Investigações interculturais comparam

as respostas dos ouvintes de culturas musicais claramente distintas, procurando tanto por

fatores culturalmente específicos quanto aqueles que transcendem a cultura. Os tópicos nos

estudos interculturais sobre música variam desde respostas emocionais à música (Balkwill et

al., 2004), expectativas melódicas (Castellano et al., 1984; Krumhansl et al., 2000), encontro

do pulso (Toivanen e Eerola, 2003), até discriminação de intervalos (Burns, 1999).

Há evidências de características comuns através de diferentes estilos musicais nos

princípios subjacentes à melodia (Krumhansl e Toiviainen, 2001), na resposta a aspectos

como intervalos consonantes/dissonantes, notas nas escalas musicais e na métrica, (Drake,

1998; Drake e Bertre, 2001). A forma como uma criança processa padrões musicais é

semelhante a dos adultos (Trainor e Trehub, 1992); crianças respondem melhor a padrões

melódicos assim como consonantes e harmônicos, e a ritmos métricos complexos (Trainor et

al., 2002a; Zentner e Kagan, 1996). Há motivos para crer que crianças no início da vida

possuem ouvido absoluto, mas mudam depois para ouvido relativo (Saffran e Griepentrog,

2001), e que elas têm memória musical de longo-prazo (Saffran et al., 2000). O uso difundido

de escalas de intervalos desiguais entre as notas, normalmente de 5 a 7 notas baseadas dentro

do intervalo de oitava (o intervalo mais consonante, correspondendo a 12 semitons e formado

pela primeira e pela oitava última nota da escala), é outra universalidade da música, a qual

também é preferida até por bebês quando comparadas a escalas de intervalos iguais entre as

notas (Burns, 1999; Trehub et al., 1999; Trehub et al., 1990).

As expectativas formadas pelos ouvintes enquanto escutam uma música são também

universais através das culturas. A expectativa é um componente básico da percepção musical

e opera em uma variedade de níveis, incluindo os níveis melódico, harmônico, métrico e

rítmico, e remete à questão “o quê” e “quando”, ou seja, quais tons ou acordes espera-se que

ocorram em uma dada sequência musical, e quando devem ocorrer. Presume-se que a

expectativa não apenas desempenhe um papel importante em como os ouvintes agrupam os

eventos sonoros em padrões coerentes, mas também na apreciação dos padrões de tensão e

relaxamento que contribuem para os efeitos emocionais da música. Ambas as respostas

cognitiva e emocional à música dependem de se, quando e como as expectativas são

preenchidas. O principal método usado em comparações interculturais de expectativas

musicais é a tarefa da “nota-prova” ou “tom-prova” (probe tone task), primeiramente

desenvolvida por Krumhansl e Shepard (1979) para quantificar a hierarquia percebida da

estabilidade dos tons.

Em experimentos de expectativa melódica uma melodia é apresentada muitas vezes

aos ouvintes, mas em cada ocasião é seguida por um “tom-prova” com graus variados de

adequação em relação ao contexto melódico precedente. Usando-se uma escala de

classificação (rating scale), os ouvintes avaliam o grau no qual o tom-prova se adequa às suas

expectativas sobre como a melodia deveria continuar (Krumhansl et al., 2000). Estudos

interculturais comparando as classificações de adequação dos tons-prova feitas por ouvintes

indianos e ocidentais enquanto ouviam ragas do norte da Índia (Castellano et al., 1984), de

ouvintes ocidentais e balineses enquanto ouviam música balinesa (Kessler et al., 1984), assim

como de ouvintes americanos e chineses nativos enquanto ouviam canções folclóricas

chinesas e inglesas (Krumhansl, 1995), revelaram que classificação de adequação dos tons-

prova apresentaram uma alta concordância entre ouvintes destas diferentes culturas musicais.

Adicionalmente, uma consistência marcante foi encontrada entre ouvintes indianos

(Sul da Ásia) e ocidentais (Castellano et al., 1984) na atribuição de pontuações maiores de

adequação para a tônica (correspondente à primeira nota da escala e sua oitava que é 12

semitons mais aguda) e para a quinta (que forma um intervalo de 4 semitons com a tônica)

notas da escala em que se baseou a melodia; a tônica e a quinta são universais através das

culturas musicais e ocorrem mais frequentemente e com maiores durações que as outras notas

da escala, e na teoria musical indiana são consideradas tons estruturais importantes nos ragas.

Interessantemente, as respostas dos ouvintes ocidentais não corresponderam às hierarquias de

tons maiores e menores segundo a Teoria da Harmonia na música ocidental (Krumhansl,

1990), mas sim às previsões para a música indiana. Adicionalmente, foi mostrado que todos

os ouvintes podem apreciar alguns aspectos de diferentes culturas musicais ao atentarem para

as propriedades estatísticas da música, tais como o número de vezes em que as notas e

combinações de notas (freqüência) aparecem nos contextos musicais apresentados, a despeito

de alguns efeitos residuais da experiência e da familiaridade do ouvinte com a cultura musical

em questão (Castellano et al., 1984). Trabalhos interculturais recentes sobre expectativas

melódicas com música coreana (Nam, 1988) bem como música do povo Sami da península

escandinava (Eerola, 2004; Krumhansl et al., 2000), forneceram evidências adicionais da

confiança universal nos arranjos hierárquicos das notas, indicando que a música se baseia em

princípios psicológicos comuns de expectativa mesmo que as culturas musicais tenham um

efeito distinto sobre estes princípios, embora a forma exata como isto ocorre varie com a

cultura.

Ouvintes abrangendo desde versados a completamente não-familiarizados com a

cultura musical Sami, a saber, cantores nativos de Sami yoik (versados), estudantes de música

finlandeses (semi-versados), e, finalmente, estudantes de música da Europa Central

(Krumhansl et al., 2000) e curandeiros tradicionais da África do Sul (não-versados) (Eerola,

2004), julgaram a adequação dos tons-prova como continuações de excertos de North Sami

yoik, um estilo musical dos povos indígenas Sami da Escandinávia (o único povo indígena da

Europa, também referidos como lapões) que é inteiramente distinto da música tonal ocidental

(Krumhansl et al., 2000; Eerola, 2003; Eerola et al., 2004). Consistentemente com os estudos

prévios, todos os quatro grupos mostraram forte concordância (Castellano et al., 1984;

Kessler et al., 1984; Krumhansl, 1995b).

Suporte adicional para as universalidades cognitivas da música também foi fornecido

pelos modelos de “frequência de eventos” (propriedades estatísticas das distribuições dos

tons/notas), de acordo com os quais os ouvintes parecem extrair os eventos que ocorrem mais

frequentemente na melodia e que atuam como pontos de referência cognitiva estabelecidos

por repetição (Eerola et al., 2004). De fato, a sensibilidade às propriedades estatísticas da

música também influencia as expectativas dos ouvintes (Oram & Cuddy, 1995; Krumhansl et

al., 1999, 2000), e é aparentemente um processo universal exibido até por bebês de 8 meses

(Saffran, Johnson, Aslin & Newport, 1999).

Hoje há um consenso geral de que além das “pistas” culturais, os ouvintes possuem

princípios psicológicos gerais inatos na percepção auditiva, tais como sensibilidade à

consonância, à proximidade de intervalo e, finalmente, às propriedades estatísticas, os quais

têm sido extensivamente mostrados influenciarem as expectativas dos ouvintes (Oram &

Cuddy, 1995; Krumhansl et al., 1999, 2000; Eerola, 2003). Como vimos anteriormente, a

consonância é preferida até mesmo por bebês de 2-4 meses em relação à dissonância (Trainor

et al., 2002) e a sensibilidade às propriedades estatísticas da música é um processo universal

exibido por bebês de apenas 8 meses (Saffran et al., 1999, Trainor et al., 2002).

Finalmente, na organização temporal das sequências auditivas dois processos

universais foram identificados (Drake, 1998): (i) segmentação das sequências em grupos de

eventos, realizada em termos de mudanças na duração das notas e na saliência, e já presentes

na infância precoce (Krumhansl e Juscsyk, 1990), e (ii) a extração de um pulso subjacente

através da percepção de intervalos regulares (Drake e Baruch, 1995), os quais permitem

inferir o pulso (metro) constante dos padrões de agrupamento temporal (ritmo) e categorizar

padrões rítmicos e melódicos únicos, uma habilidade intercultural presente em adultos

(Toivanen e Eerola, 2003) e também em crianças (Hannon e Johnson, 2005).

7. Música e Emoções

Como apontamos acima, a resposta emocional à música depende de “se, quando e

como” as expectativas são preenchidas (para uma revisão vide (Eerola, 2004)) e a habilidade

extraordinária da música de evocar emoções poderosas é provavelmente a principal razão,

porque ouvimos música e porque ela é geralmente referida como a “linguagem das emoções”.

Consistentes com os resultados de expectativas musicais (Eerola, 2004), achados

empíricos recentes sugerem que o significado emocional na música é transmitido por “pistas”

ou “insinuações” acústicas universais, tais como complexidade, volume, tempo, cuja

interpretação não requer familiaridade com as convenções musicais culturalmente específicas

(Balkwill et al., 2004). Interculturalmente, aumentos na complexidade percebida parecem

estar consistentemente associados a emoções negativas de raiva e tristeza, enquanto que

diminuições estão associadas à alegria e felicidade. Além disso, aumentos no tempo percebido

estão associados à alegria, ao passo que diminuições no tempo estão associadas à tristeza.

Finalmente, aumentos de volume são frequentemente associados à raiva (Balkwill et al.,

2004) e criam desprazer até mesmo em primatas não-humanos (McDermott e Hauser, 2004).

Consonância e dissonância certamente desempenham um papel nas emoções relacionadas a

valores positivos e negativos, respectivamente (Peretz et al., 2001; Blood & Zatorre, 2001;

Trainor et al., 2002b).

A música é capaz de consistentemente induzir fortes emoções de valor emocional

tanto positivo como negativo através dos indivíduos (Krumhansl, 1997) e culturas (Balkwill

et al., 2004; Eerola, 2004). Por exemplo, Jaak Panksepp (1995) perguntou a várias centenas

de homens e mulheres jovens porque eles sentiam que música era importante em suas vidas e

70% de ambos os sexos respondeu que era “porque ela evoca emoções e sentimentos”, em

segundo lugar veio “para aliviar o tédio”.

Hoje, já sabemos que a música evoca diretamente as emoções, ao invés de meramente

expressar uma emoção que o ouvinte reconhece. A maioria das pessoas experimenta uma

resposta particularmente intensa, eufórica à música, frequentemente acompanhada por um

componente autonômico, ou psicofisiológico, descrito como um “calafrio na espinha”, ou

“arrepios”. Ouvir música, automaticamente evoca mudanças fisiológicas na circulação

sanguínea, na respiração, na condutância da pele e na temperatura corporal, as quais são

respostas autonômicas do sistema nervoso simpático (Krumhansl, 1997). Khalfa et al. (2002)

demonstrou que a SCR (atividade eletrodérmica medida pela resposta de condutância da pele

para mensurar o grau de excitação do estímulo) pode ser evocada e modulada pela incitação

emocional da musica. Similaridades nas mensurações das emoções musicais e visuais por

meio da técnica de EEG denominada PRE (potenciais relacionados a eventos) sugerem que o

processamento de emoções musicais pode não ser domínio-específico, ou seja, pode não ser

diferente em natureza das emoções evocadas por outros eventos, tais como palavras e imagen

(Khalfa et al., 2002).

Estudos de neuroimagem e de lesão revelam as bases subcorticais profundas das

experiências emocionais musicais em muitas áreas cerebrais homólogas entre humanos e

todos os outros mamíferos (Blood e Zatorre, 2001; Brown et al., 2004; Gosselin et al., 2005).

A música agradável/consonante afeta diretamente áreas paralímbicas, como a ínsula, o córtex

orbitofrontal e o córtex pré-frontal ventro-medial, todas tradicionalmente associadas à

recompensa/motivação, emoção e alerta, bem como o sistema meso-límbico de dopamina, a

mais importante via neural relacionada à recompensa (Blood e Zatorre, 2001; Blood et al.,

1999; Menon e Levitin, 2005). Em contraste, a música desagradável/dissonante afeta

diretamente o giro parahipocampal (Blood et al., 1999), uma estrutura paralímbica ativada

durante estados emocionais desagradáveis evocados por figuras com valência emocional

negativa, juntamente com a amígdala (Lane et al., 1997), a qual, por sua vez, é uma estrutura

chave no processamento do medo e com a qual o giro parahipocampal tem fortes conexões

recíprocas (Bechara et al., 2003; Mesulam, 1998). Recentemente foi demonstrado que lesão

unilateral da amígdala prejudica seletivamente a percepção da expressão emocional do medo

em música assustadora (acordes menores do terceiro e sexto graus da escala e tempo rápido,

alguns com dissonância e ritmos irregulares), enquanto que o reconhecimento de alegria

(modo maior e tempo rápido) foi normal e o reconhecimento de serenidade (modo maior e

tempo /intermediário tocado com acompanhamento pedal e de arpejos) foi menos claramente

afetado pela ressecção do lobo temporal mesial (Gosselin et al., 2005).

Há também evidências de dupla dissociação entre cognição musical e processamento

emocional da música. Lesão bilateral do córtex auditivo causou déficits severos e irreversíveis

na expressão musical, assim como na percepção de ambas as dimensões tonal e temporal,

confirmados por testes de discriminação ‘igual-diferente’ das sequências musicais, incluindo

material musical consonante e dissonante (Peretz et al., 2001), e ainda assim os pacientes

puderam apreciar e desfrutar o seu significado afetivo/emocional (Peretz et al., 1997) e

classificar melodias como ‘alegres’ e ‘tristes’ com a mesma acurácia dos sujeitos controles

(Peretz e Gagnon, 1999). Reciprocamente, a perda da resposta emocional à música na

presença de habilidades de percepção musical completamente preservadas é reportada em um

paciente com infarto na ínsula esquerda, estendendo-se anteriormente ao lobo frontal e

inferiormente para a amígdala no hemisfério esquerdo (Griffiths et al., 2004), todas essas

áreas em estreita correspondência com áreas do hemisfério esquerdo ativadas durante

respostas emocionais à música em sujeitos normais (Blood e Zatorre, 2001). Ambos os

estudos oferecem uma importante dupla dissociação entre cognição musical e processamento

emocional, isto é, entre os componentes perceptuais e emocionais do processamento musical,

o primeiro envolvendo as áreas temporais superiores e parietais e frontais inferiores, e o

segundo engajando um circuito cerebral distribuído, o qual é também recrutado por outros

poderosos estímulos emocionais que leva à estimulação autonômica e inclui estruturas

límbicas mesiais bilaterais, a ínsula, o estriado ventral, o tálamo, o mesencéfalo e regiões

neocorticais difusamente distribuídas.

Resumindo, há cada vez mais evidências de que a música deriva sua carga emocional

diretamente dos aspectos dinâmicos dos sistemas cerebrais que normalmente controlam as

emoções, os quais a despeito de serem distintos dos cognitivos operam em alta interatividade

com estes. A habilidade da música em incitar nossas emoções de uma forma muito direta é

uma linha de evidência convincente a favor da idéia de que atribuições cognitivas em

humanos não são exclusivamente necessárias para a ativação de processos emocionais no

cérebro/mente. Em outras palavras, o processamento cognitivo para codificar convenções

culturais não é totalmente essencial para se extrair o significado emocional na música, uma

idéia apoiada por estudos cognitivos interculturais, assim como por estudos de lesão e de

neuroimagem.

A ligação entre música e estruturas subcorticais da emoção no cérebro humano é

reforçada pela relação entre emoções musicais e a neuroquímica de emoções específicas no

cérebro de mamíferos. Panksepp previu que antagonistas de receptores de opióides, tais como

naloxona e naltrexona, podem diminuir nossa apreciação emocional da musica (Panksepp,

1995). De fato, dados preliminares fornecidos por Goldstein (1980) indicaram há muito tempo

que tais manipulações podem reduzir os arrepios, ou frêmitos que muitas pessoas

experimentam ao ouvirem música especialmente comovente.

8. Discussão: o papel da música no desenvolvimento

Contrariamente à crença de que a música é um mero subproduto cultural e sua

apreciação necessariamente envolve a apropriação de convenções culturais, o corpo crescente

da pesquisa científica revela que, em acréscimo aos processos cognitivos universais

observados na percepção musical, a música não poderia ser uma experiência significativa e

desejável sem os sistemas emocionais ancestrais dos nossos cérebros. Além disso, apesar da

existência de alguns circuitos cerebrais cruciais e particularmente relevantes para a música no

hemisfério direito, grande parte dos processos neurocognitivos envolvidos na música e na

linguagem não parecem ser domínio-específicos da linguagem nem da música, nem tampouco

encapsulados. A música, em particular, tem se mostrado um domínio cognitivo supra-modal,

envolvendo áreas corticais tradicionalmente associadas à linguagem, processamento espacial

e motor, assim como áreas subcorticais associadas a processamento emocional básico.

Emocionalmente falando, ao contrário de muitos outros estímulos, a música pode, com

freqüência, evocar emoções espontaneamente na ausência de associações externas, e a nossa

capacidade de decifrar os substratos neurais das respostas estéticas pode revelar-se mais fácil

para a música que para as artes visuais (Ramachandran e Hirstein, 1999) e, assim como os

estímulos visuais biologicamente relevantes, a música ativa estruturas primitivas nas áreas

límbica e paralímbica tradicionalmente relacionadas ao medo e à recompensa,

respectivamente, incluindo os sistemas de alerta dependentes de norepinefrina e serotonina

que regulam respostas emocionais, assim como sistemas de busca de recompensa/incentivo,

centrados em circuitos dependentes de dopamina (DA) mesolímbicos e mesocorticais, os

quais também são importantes na estimativa intra-cerebral de passagem do tempo

provavelmente relacionada aos movimentos rítmicos do corpo; juntas estas evidências

sugerem uma pré-adaptação ancestral aos componentes emocionais da música (Panksepp e

Bernatzky, 2002). Assim sendo, a música bem elaborada é unicamente eficaz em ressoar com

os nossos sistemas emocionais básicos, trazendo à vida muitas propensões afetivas que podem

estar codificadas, como um direito hereditário, dentro de circuitos neurais antigos construídos

pelos nossos genes, muitos dos quais compartilhamos homologamente com outros mamíferos

(Panksepp e Bernatzky, 2002). Portanto, nosso amor pela música possivelmente reflete a

habilidade ancestral do nosso cérebro mamífero de transmitir e receber sons emocionais

básicos, que podem despertar sentimentos afetivos, os quais são indicadores implícitos de

aptidão evolutiva.

Reciprocamente, cognitivamente falando a música, ao contrário de muitos outros

estímulos, é abismalmente supra-modal, envolvendo circuitos neurais auditivos, motores,

espaciais, numéricos, emocionais e lingüísticos.

A questão central é “Por quê?”. Os dados revistos aqui parecem ter duas implicações

importantes. Primeiro, a música poderia ser baseada na existência de sons emocionais

intrínsecos que fazemos (os elementos prosódicos animalescos das nossas emissões sonoras) e

nos movimentos rítmicos do nosso aparato motor instintivo/emocional, ambos evolutivamente

moldados para indicar certos estados subjetivos mais prováveis de promover ou impedir nosso

bem estar (Panksepp e Bernatzky, 2002). Segundo, que estas características emocionais e

supra-modais da música são também evolutivamente importantes para promover a

estimulação e o desenvolvimento de diversas capacidades cognitivas (Cross, 2001; 2003a).

Nós vimos que aspectos cruciais da percepção tonal na música são provavelmente

moldados por mecanismos de processamento auditivo relativamente básicos, não domínio-

específicos da música, e podem ser estudados em animais experimentais (Hauser e

McDermott, 2003; McDermott e Hauser, 2004). Em criaturas sociais como nós, cujos

ancestrais viviam em ambientes silvestres e onde o som era uma das formas mais efetivas de

coordenar atividades coesas em grupo, reforçar vínculos sociais, resolver animosidades e

estabelecer hierarquias estáveis de submissão e dominância, deve ter havido um prêmio para a

capacidade de comunicar matizes de significado emocional por meio do caráter melódico

(prosódia tonal) dos sons emitidos (Panksepp & Bernatzky, 2002). Portanto, o som é uma

excelente forma de ajudar a sincronizar e regular as emoções, de modo a manter a harmonia

social, e podemos pensar que a capacidade de gerar e decodificar sons emocionais deve ser

uma ferramenta excelente para a sobrevivência. A capacidade do nosso cérebro de ressoar

emocionalmente com música pode ter uma profunda história evolutiva multidimensional,

incluindo aspectos relacionados à emergência da comunicação intersubjetiva, a estratégias de

seleção de parceiros e à emergência de processos regulatórios para outras dinâmicas sociais,

como as vinculadas à coesão de grupo e à coordenação de atividades.

Os princípios da psicologia evolucionária propõem que os cérebros de humanos e de

outras espécies são adaptados para processar e responder a três classes gerais de informações:

social, biológica e física. Quanto mais elevada a espécie na hierarquia evolutiva, mais

importantes são as características psicológicas relacionadas ao comportamento social. A teoria

da mente é especialmente conspícua em humanos e representa a habilidade de fazer

inferências sobre as intenções, crenças e estados emocionais e o provável comportamento

futuro de outros indivíduos (Meltzoff, 2002), desempenhando um papel central em todas as

competências sócio-cognitivas. Sob uma perspectiva comparativa, linguagem e teoria da

mente são as competências sócio-cognitivas mais altamente desenvolvidas em humanos

(Pinker, 1999) e supõe-se que sejam elas o resultado evolutivo da complexidade das

dinâmicas sociais humanas. Nós propomos que as conexões entre a música e a imitação são

impressionantes. Vamos iniciar com uma melhor noção dos princípios subjacentes à imitação.

Convergências impressionantes entre os achados cognitivos e neurocientíficos indicam

que a imitação é inata em humanos e precede a mentalização e a teoria da mente (no

desenvolvimento e na evolução) e, finalmente, que a imitação comportamental e seu substrato

neural fornecem o mecanismo pelo qual a teoria da mente e a empatia se desenvolvem nos

humanos. Argumenta-se que na ontogênese a imitação infantil parece ser o gérmen da teoria

da mente do adulto. Recém-nascidos com apenas 42 minutos de vida são capazes de imitação

facial bem sucedida, e bebês de 12-21 dias puderam imitar quatro gestos adultos diferentes:

protrusão labial e da língua, abertura da boca e movimento do dedo, e não confundiram nem

as ações, nem as partes do corpo (Meltzoff, 2002). Bebês podem vincular o self e os outros

através do que foi chamado representação ‘supra-modal’ do ato corporal observado. A

imitação precoce parece fornecer a primeira ocasião em que os bebês fazem uma conexão

entre o mundo dos outros e seus próprios estados internos, a forma como eles se sentem.

Bebês reconhecem quando outros atuam ‘como eu’ e o alto valor emocional desta

experiência. Além disso, bebês olharam por mais tempo o adulto que os estava imitando;

sorriram mais para este adulto e, o mais significativo, direcionaram comportamentos testando

este adulto, em comparação ao adulto que não os imitou (Meltzoff e Decety, 2003).

A música entra em cena, quando consideramos que, pela sua natureza supra-modal,

incluindo emoções, a percepção musical parece ser um comportamento inato que estimula,

entre outras coisas, a representação supra-modal subjacente à imitação. Uma observação

comum na literatura sócio-desenvolvimentista é a de que brincadeiras entre pais e filhos são

com freqüência de imitação recíproca em sua natureza. Quando os pais balançam um

chocalho ou vocalizam, os bebês balançam, ou vocalizam de volta. Um aspecto de

“alternância da vez” destas brincadeiras é a “dança rítmica” entre mãe e filho. A imitação é

frequentemente bidirecional, porque os pais imitam seus bebês, assim como os bebês imitam

seus pais (Meltzoff, 1999). Adultos através das culturas brincam de jogos de imitação com as

suas crianças que incorporam o caráter temporal da “alternância de vez” que também está

presente na “dança rítmica” entre mãe e criança (Trevarthen, 1979; Trevarthen, 1999). As

conexões entre comportamentos proto-musicais em bebês e imitação estão se tornando cada

vez mais evidentes.

Sabemos que jogos de imitação com música e dança são universais e as próprias

danças tribais em si mesmas podem ser vistas como uma das mais freqüentes formas de jogos

de imitação, usadas para desenvolver o senso de “pertencimento ao grupo”, ambos os

sentimentos de “ser como o outro” e de o outro “ser como eu” e assim de pertencer a um

grupo. Talvez não seja coincidência que os precursores desenvolvimentais da música, desde o

início da primeira infância na fase pré-verbal e ao longo de toda ela, ocorram sob a forma de

comportamentos proto-musicais, os quais são exploratórios e cinesteticamente encarnados,

intimamente ligados a brincadeiras de vocalização e a movimentos de todo o corpo. Bebês

humanos interagem com seus cuidadores produzindo e respondendo a padrões de som e ação.

Estas interações controladas no tempo envolvem sincronismo e “alternância da vez” e são

empregadas na modulação e regulação de estados afetivos (Dissanayake, 2000) bem como na

aquisição e controle da atenção compartilhada, também referida como “intersubjetividade

primária” (Trevarthen, 1999). Esta ritmicidade também é manifestação de uma competência

musical fundamental uma musicalidade que “é parte de um impulso natural no aprendizado

sócio-cultural humano, que se inicia na infância” (Trevarthen, 1999, p.194) e permite aos

bebês acompanhar e responder de acordo com as regularidades temporais na vocalização, no

movimento e no tempo, a iniciar séries de vocalizações e movimentos temporalmente

regulares (Trevarthen, 1999).

Os comportamentos proto-musicais acima descritos tornam a música

inextricavelmente ligada à aquisição da linguagem. A proto-musicalidade está tão

intimamente entrelaçada aos comportamentos proto-verbais que as “origens pré-verbais de

habilidades musicais não podem ser facilmente diferenciadas dos estágios pré-linguísticos da

aquisição da fala e do alfabeto básico da comunicação emocional” (Papousek, 1996b, p. 92),

e os elementos musicais que participam no processo do desenvolvimento comunicativo inicial

pavimentam o caminho para as habilidades lingüísticas antes dos elementos fonéticos

(Papousek, 1996a). Na dimensão tonal, interações bebê-cuidador tendem a exibir o mesmo

espectro de características, tais como contornos tonais exagerados da parte do cuidador

(“maternalês”) e modulação melódica e articulação primitiva da parte do bebê, tudo no

contexto de uma ritmicidade interativa e cinestética. Da parte do bebê, estas atividades se

desenvolvem em jogos vocais exploratórios (entre 4 e 6 meses), que dão lugar a um balbucio

repetitivo (de 7 a 11 meses) do qual emergem ambos o balbucio variegado (sílabas não

repetitivas) e primeiras palavras (entre 9 e 13 meses) (Kuhl et al., 2001; Papousek, 1996a;

Papousek, 1996b). O comportamento linguístico começa a se diferenciar das capacidades

proto-musicais/proto-linguísticas conforme o bebê se desenvolve, quando as interações

pais/bebê usam cada vez mais vocalizações e gestos para comunicar afeto na troca de

‘pedidos’, apoiando mais o desenvolvimento de gestos referenciais e vocalizações, orientando

a atenção de ambos os participantes para objetos, eventos e pessoas fora da díade bebê-pais

(Cross, 2001).

O papel biológico do comportamento musical parece se ajustar não apenas ao

desenvolvimento de capacidades sócio-afetivas e linguísticas, mas também à flexibilidade

cognitiva dos bebês humanos. A música pode ser vista como uma forma de atividade

multimodal ou multimidiática de movimentos temporalmente padronizados. A natureza

polissêmica da música e a sua característica de ser uma forma de exploração da interação

social livre de conseqüências e um “espaço-de-ensaio” que possibilita a repetição de

processos, parecem fornecer o modo ideal de adquirir flexibilidade cognitiva, além do seu

papel na socialização da criança. O papel da música no desenvolvimento das capacidades

cognitivas individuais parece ser bem respaldado por um dos principais aspectos do

processamento neural da música, a intermodalidade. De fato, ouvir e fazer musica parece ser

um meio perfeito de formar conexões e inter-relações entre diferentes domínios de

competência do bebê e da criança, tais como o social, o biológico e o mecânico.

9. Conclusão

Agora podemos dizer que a música não é somente polisêmica, mas também é

polimodal. A música é universal entre as culturas humanas, estantes ou extintas e “nos une em

uma identidade coletiva como membros de nações, religiões e outros grupos” (Tramo, 2001).

Embora pelo menos um dos componentes da música, a saber, a codificação tonal das

notas melódicas, pareça realmente ser domínio-específico da música, este é crucialmente

dependente do processamento auditivo básico, a percepção tonal fina, o qual é crucialmente

relevante para a música, mas não domínio-específico em um sentido fodoriano estrito.

Os comportamentos complexos provavelmente evoluídos biologicamente tais como

música e linguagem, o processamento especial, parecem realmente compartilhar muitos

módulos neurocognitivos em comum, ao passo que a seletividade observada nos estudos de

lesão parecem ser um resultado do perfil diferencial de relevância deste grupo de módulos

neurais compartilhados para cada domínio complexo. De fato, os déficits não são

completamente seletivos (exceto com relação à codificação tonal na música), e os déficits do

processamento tonal aparentemente seletivos para a música, por exemplo, podem estar

acompanhados de déficits no processamento espacial e na linguagem, e são seletivos

justamente porque são muito mais deletérios para a música do que para os outros domínios.

Por outro lado, o processamento do ritmo na música parece estar claramente vinculado ao

processamento da linguagem como mostram os estudos com lesões e de neuroimagem.

A universalidade da música juntamente com sua principal característica que é a

intermodalidade, sugerem que suas diferentes manifestações culturais são particularizações

culturais da capacidade humana de formar múltiplas representações intencionais múltiplas por

meio da integração da informação através de diferentes domínios funcionais da experiência e

comportamento humanos que são temporalmente extendidos ou seqüenciados e geralmente

expressos em som. Nós nos diferenciamos de nossos parentes primatas por um imenso salto

na flexibilidade cognitiva e em nossa capacidade de nos envolver e sustentar em uma larga

gama de relações e interações sociais. A natureza polisêmica e intermodal do comportamento

musical parece fornecer à criança um espaço dentro do qual ela pode explorar as possíveis

conexões destas representações multimodais.

A pesquisa científica da música nos ajuda não somente a compreender o

funcionamento misterioso e maravilhoso de nosso cérebro, mas também a lançar luzes sobre a

essência do comportamento humano e, consequentemente, da espécie humana.

Agradecimentos

Nós agradecemos ao Prof. Joydeep Bhattacharya pela sua inestimável ajuda na melhoria

deste texto, fornecendo valiosos comentários e críticas de uma versão anterior deste

artigo.

Referências

Andrade, P. E. (2004). Uma abordagem evolucionária e neurocientífica da música.

Neurociências, 1(1), 21-33

Andrade, P. E. and Bhattacharya, J. (2003). Brain tuned to music. Journal of Royal Society of

Medicine, 96 (8), 284-287.

Andrade, P. E., Andrade O. V. C. A., Gaab N., Gardiner M. F. & Zuk J. (2010) Investigando a

Relação entre Percepção Musica e Habilidades Cognitivo-Linguísticas em Leitores Iniciantes

da Língua Portuguesa. Resumos/Abstracts, XXXIV Congresso Anual da Sociedade Brasileira

de Neurociências e Comportamento. Retirado em 17 de dezembro de

http://www.sbnec.org.br/congresso2010/resumos/R0364-1.html.

Anvari, S. H.; Trainor, L. J.; Woodside, J. and Levy, B. A. (2002). Relations among musical

skills, phonological processing, and early reading ability in preschool children. J Exp Child

Psychol, 83 (2), 111-130.

Arnott, S. R.; Binns, M. A.; Grady, C. L.; & Alain, C. (2004). Assessing the auditory dual-

pathway model in humans. Neuroimage, 22(1), 401-408.

Ayotte, J.; Peretz, I. and Hyde, K. (2002). Congenital amusia - A group study of adults

afflicted with a music-specific disorder. Brain, 125 (2), 238-251.

Ayotte, J.; Peretz, I.; Rousseau, I.; Bard, C. and Bojanowski, M. (2000). Patterns of music

agnosia associated with middle cerebral artery infarcts. Brain, 123 (9), 1926-1938.

Balkwill, L-L.; Thompson, W. F. and Matsunaga, R. (2004). Recognition of emotion in

Japanese, Western, and Hindustani music by Japanese listeners. Japanese Psychological

Research, 46 (4), 337-349.

Bechara, A.; Damasio H. and Damasio, A.R. (2003). Role of the amygdala in decision-

making. Ann N Y Acad Sci, 985, 356-69.

Bickerton, D. (1990). Species and Language. Chicago: Univ. of Chicago Press.

Bishop, D. V. (1999). Perspectives: cognition. An innate basis for language? Science, 286

(5448), 2283-4.

Blood, A. J. and Zatorre, R. J. (2001). Intensely pleasurable responses to music correlate with

activity in brain regions implicated in reward and emotion. Proceedings of the National

Academy of Sciences of the United States of America, 98 (20), 11818-11823.

Blood, A. J.; Zatorre, R.J.; Bermudez, P. and Evans, A. C. (1999). Emotional responses to

pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nature

Neuroscience 2 (4), 382-387.

Bookheimer, S. (2002). Functional MRI of language: new approaches to understanding the

cortical organization of semantic processing. Annu Rev Neurosci, 25, 151-88.

Brown, S. Martinez, M. J. and Parsons, L. M. (2004). Passive music listening spontaneously

engages limbic and paralimbic systems. Neuroreport,15 (13), 2033-7.

Brust, J. C. (1980). Music and language: musical alexia and agraphia. Brain, 103 (2), 367-92.

Burns, E. M. (1999). Intervals, scales, and tuning. In: Deutsch, D. (Ed.). In The Psychology

of Music (pp. 215-264). San Diego: Academic Press.

Castellano, M. A.; Bharucha, J. J. and Krumhansl, C. L. (1984). Tonal hierarchies in the

music of north India. J Exp Psychol Gen, 113 (3), 394-412.

Chomsky, N. (1957). Syntactic Structures. The Hague, Netherlands: Mouton & Co..

Cross, I. (2001). Music, cognition, culture, and evolution. Ann N Y Acad Sci, 930, 28-42.

Cross, I. (2003a). Music and evolution: causes and consequences. Contemporary Music

Review, 22, 79-89.

Cross, I. (2003b). Music as a biocultural phenomenon. Ann N Y Acad Sci, 999, 106-11.

Dalla Bella, S. and Peretz, I. (1999). Music agnosias: Selective impairments of music

recognition after brain damage. Journal of New Music Research, 28 (3), 209-216.

Dapretto, M. and Bookheimer, S. Y. (1999). Form and content: dissociating syntax and

semantics in sentence comprehension. Neuron, 24 (2), 427-32.

Dehaene, S.; Dehaene-Lambertz, G. and Cohen, L. (1998). Abstract representations of

numbers in the animal and human brain. Trends Neurosci, 21 (8), 355-61.

Dissanayake, E. I. E. (2000). Antecedents of the temporal arts in early mother-infant

interactions. In: Wallin, N.; Merker, B. and Brown, S. (Ed). The origins of music (pp. 389-

410). Cambridge, MA: MIT Press, 2000.

Dominey, P. F., & Lelekov, T. (2000). Non-linguistic transformation processing in

agrammatic aphasia. Comment on Grodzinsky: The neurology of syntax: Language use with

and without Broca_s area. Behavioral and Brain Sciences, 23 (1), 34.

Drake, C. (1998). Psychological processes involved in the temporal organization of complex

auditory sequences: Universal and acquired processes. Music Perception, 16, 11-26.

Drake, C. and Baruch, C. (1995). From temporal sensitivity do models of temporal

organization: Hypotheses and data on the acquisition of the temporal abilities. Année

Psychologique, 95, 555-569.

Drake, C., & Bertrand, D. (2001). The quest for universals in temporal processing in music.

Annals of the New York Academy of Science 17-27.

Dunbar, R. (1996). Grooming, Gossip and the Evolution of Language. Cambridge, MA:

Harvard University Press.

Eerola, T. (2004). Data-driven influences on melodic expectancy: Continuations in North

Sami Yoiks rated by South African traditional healers. In S. D. Lipscomb, R. Ashley, R. O.

Gjerdingen, & P. Webster (Eds.), Proceedings of the Eighth International Conference of

Music Perception and Cognition (pp. 83–87). Adelaide, Australia: Causal Productions.

Efron, R. (1963). Temporal Perception, Aphasia And D'ej'a Vu. Brain, 86, 403-24.

Eisenberg, L. S.; Shannon, R. V.; Martinez, A. S.; Wygonski, J. and Boothroyd, A. (2000).

Speech recognition with reduced spectral cues as a function of age. J Acoust Soc Am, 107,

2704-10.

Erdonmez, D. and Morley, J. B. (1981). Preservation of acquired music performance

functions with a dominant hemisphere lesion: a case report. Clin Exp Neurol, 18, 102-8.

Eustache, F.; Lechevalier, B.; Viader, F. and Lambert, J. (1990). Identification and

discrimination disorders in auditory perception: a report on two cases. Neuropsychologia, 28

(3), 257-70.

Foxe, J. J. and Schroeder, C. E. (2005). The case for feedforward multisensory convergence

during early cortical processing. Neuroreport, 16 (5), 419-23.

Friederici, A. D.; Meyer, M. and von Cramon, D. Y. (2000). Auditory language

comprehension: an event-related fMRI study on the processing of syntactic and lexical

information. Brain Lang, 75 (3), 289-300.

Geary, D. C. (2001). A Darwinian perspective on Mathematics and Instruction. In: Loveless,

T. (Ed.). The great curriculum debate: How should we teach reading in math? (pp 85-107).

Washington, DC: Brookings Institute.

Geary, D. C.; Huffman, K. J. (2002). Brain and cognitive evolution: Forms of modularity and

functions of mind. Psychological Bulletin, 128, 667-698.

Gil-da-Costa, R.; Braun, A.; Lopes, M.; Hauser, M. D.; Carson, R.E.; Herscovitch, P. and

Martin, A. (2004). Toward an evolutionary perspective on conceptual representation: species-

specific calls activate visual and affective processing systems in the macaque. Proc Natl Acad

Sci U S A, 101 (50), 17516-21.

Gordon, H. W. (1978). Hemispheric asymmetry for dichotically-presented chords in

musicians and non-musicians, males and females. Acta Psychol (Amst), 42 (5), 383-95.

Gosselin, N.; Peretz, I.; Noulhiane, M.; Hasboun, D.; Beckett, C.; Baulac, M. and Samson, S.

(2005). Impaired recognition of scary music following unilateral temporal lobe excision.

Brain, 128 (3), 628-40.

Griffiths, T.D.; Rees, A.; Witton, C.; Cross, P. M.; Shakir, R. A. and Green, G. G. (1997).

Spatial and temporal auditory processing deficits following right hemisphere infarction. A

psychophysical study. Brain, 120 (5), 785-94.

Griffiths, T. D.; Warren, J. D.; Dean, J. L. and Howard, D. (2004). When the feeling's gone: a

selective loss of musical emotion. J Neurol Neurosurg Psychiatry, 75 (2), 344-345.

Habib, M. (2000). The neurological basis of developmental dyslexia: an overview and

working hypothesis. Brain, 123 (12), 2373-99.

Halpern, A. R. and Zatorre, R. J. (1999). When that tune runs through your head: A PET

investigation of auditory imagery for familiar melodies. Cerebral Cortex, 9 (7), 697-704.

Hannon, E. E. and Johnson, S. P. (2005). Infants use meter to categorize rhythms and

melodies: Implications for musical structure learning. Cognitive Psychology, 50 (4), 354-377.

Harrington, D. L.; Haaland, K. Y. and Knight, R. T. (1998). Cortical networks underlying

mechanisms of time perception. J Neurosci, 18 (3), 1085-95.

Hauser, M. D.; Chomsky, N. and Fitch, W. T. (2002). The faculty of language: what is it, who

has it, and how did it evolve? Science, 298 (5598), 1569-79.

Hauser, M. D. and McDermott, J. (2003). The evolution of the music faculty: a comparative

perspective. Nat Neurosci, 6 (7), 663-8.

Haxby, J. V.; Horwitz, B.; Ungerleider, L. G.; Maisog, J. M.; Pietrini, P. and Grady, C.L.

(1994). The functional organization of human extrastriate cortex: a PET-rCBF study of

selective attention to faces and locations. J Neurosci, 14 (11), 6336-53

.

Hyde, K. and Peretz, I. (2004). Brains that are out of tune but in time. Psychological Science ,

vol. 15(5), pp. 356-360

Janata, P. and Grafton, S. T. (2003). Swinging in the brain: shared neural substrates for

behaviors related to sequencing and music. Nat Neurosci, 6 (7), 682-7.

Kessler, E. J.; Hansen, C. and Shepard, R. N. (1984). Tonal schemata in the perception of

music in Bali and the West. Music Perception, 2 (2), 131-165.

Khalfa, S.; Isabelle, P.; Jean-Pierre, B. and Manon, R. (2002). Event-related skin conductance

responses to musical emotions in humans. Neurosci Lett, 328 (2), 145-9.

Kimura, D. (1993). Neuromotor Mechanisms in Human Communication. Oxford: Oxford

University Press.

Koelsch, S.; Gunter, T. C.; von Cramon, D.Y.; Zysset, S.; Lohmann, G. and Friederici, A. D.

(2002a). Bach speaks: A cortical "language-network" serves the processing of music.

Neuroimage, 17 (2), 956-966.

Koelsch, S.; Kasper, E.; Sammler, D.; Schulze, K.; Gunter, T. and Friederici, A. D. (2004)

Music, language and meaning: brain signatures of semantic processing. Nat Neurosci, 7 (3),

302-7.

Krumhansl, C. L. (1990). Cognitive Foundations of Musical Pitch. New York: Oxford

University Press.

Krumhansl, C. L. (1995). Music psychology and music theory: problems and prospects.

Music Theory Spectrum, 17, 53-90.

Krumhansl C. L. (1997). An exploratory study of musical emotions and psychophysiology.

Can J Exp Psychol, 51 (4), 336-53.

Krumhansl C. L. and Juscsyk, P. W. (1990). Infant’s perception of phrase structure in music.

Psychological Science, 1 (1), 70-73.

Krumhansl, C. L.; Toivanen, P.; Eerola, T.; Toiviainen, P.; Jarvinen, T. and Louhivuori, J.

(2000). Cross-cultural music cognition: cognitive methodology applied to North Sami yoiks.

Cognition, 76 (1), 13-58.

Krumhansl, C. L. and Toiviainen, P. (2001). Tonal cognition. Ann N Y Acad Sci., 930, 77-91.

Kuhl, P. K. (2000). A new view of language acquisition. Proc Natl Acad Sci U S A, 97 (22),

11850-7.

Kuhl, P. K.; Tsao, F. M.; Liu, H. M.; Zhang, Y. and De Boer, B. (2001).

Language/culture/mind/brain. Progress at the margins between disciplines. Ann N Y Acad

Sci, 935, 136-74.

Lane, R. D.; Reiman, E. M.; Bradley, M. M.; Lang, P. J.; Ahern, G. L.; Davidson, R. J. and

Schwartz, G.E. (1997). Neuroanatomical correlates of pleasant and unpleasant emotion.

Neuropsychologia, 35 (11), 1437-44.

Lelekov-Boissard, T. and Dominey, P. F. (2002). Human brain potentials reveal similar

processing of non-linguistic abstract structure and linguistic syntactic structure. Neurophysiol

Clin, 32 (1), 72-84.

Lelekov, T.; Dominey, P. F.; ChossonTiraboschi, C.; Ventre- Dominey, J.; Labourel, D.;

Michel, F. and Croisile, B. (2000). Selective Deficits in Processing Syntactic and Abstract

Sequential Structure in Agrammatic Comprehension. Europ J Neurosci, 12 (11), 168.

Lerdahl, F. and Jakendorff, R. A. (1983). A Generative Theory of Tonal Music. Cambridge,

MA: MIT Press.

Levitin, D. J. and Menon, V. (2003). Musical structure is processed in "language" areas of the

brain: a possible role for Brodmann Area 47 in temporal coherence. Neuroimage, 20 (4),

2142-52.

Lieberman, P. (1984). The Biology and Evolution of Language. Cambridge, MA: Harvard

Univ. Press.

Liegeois-Chauvel, C.; Peretz, I.; Babai, M.; Laguitton, V. and Chauvel, P. (1988).

Contribution of different cortical areas in the temporal lobes to music processing. Brain, 121

(10), 1853-67.

Macaluso, E. and Driver, J. (2005). Multisensory spatial interactions: a window onto

functional integration in the human brain. Trends Neurosci, 28 (5), 264-71.

Maess, B.; Koelsch, S.; Gunter, T. C. and Friederici, A. D. (2001). Musical syntax is

processed in Broca's area: an MEG study. Nature Neuroscience, 4 (5), 540-545.

Mavlov, L. (1980). Amusia due to rhythm agnosia in a musician with left hemisphere

damage: a non-auditory supramodal defect. Cortex, 16 (2), 331-8.

Mazziotta, J. C.; Phelps, M. E.; Carson, R. E. and Kuhl, D. E. (1982). Tomographic Mapping

of Human Cerebral Metabolism - Auditory- Stimulation. Neurology, 32 (9), 921-937.

McClelland, J. L. (2001). Cognitive neuroscience. In: Smelser, N.J. and Balte, P.B.(Ed.).

International Encyclopedia of the Social & Behavioral Sciences (pp. 2133-2139). Oxford:

Pergamon Press.

McDermott, J. and Hauser, M. (2004). Are consonant intervals music to their ears?

Spontaneous acoustic preferences in a nonhuman primate. Cognition, 94 (2), B11-21.

Mellet, E.; Bricogne, S.; Crivello, F.; Mazoyer, B.; Denis, M. and Tzourio-Mazoyer, N.

(2002). Neural basis of mental scanning of a topographic representation built from a text.

Cereb Cortex, 12 (12), 1322-30.

Mellet, E.; Tzourio, N.; Crivello, F.; Joliot, M.; Denis, M. and Mazoyer, B. (1996). Functional

anatomy of spatial mental imagery generated from verbal instructions. J Neurosci, 16 (20),

6504-12.

Meltzoff, A. N. (1999). Origins of theory of mind, cognition and communication. J Commun

Disord, 32 (4), 251-269.

Meltzoff, A. N. (2002). Imitation as a mechanism of social cognition: Origins of empathy,

theory of mind, and the representation of action. In: Goswami, U. (Ed.). Handbook of Child

Cognitive Development. Oxford: Blackwell Publishers.

Meltzoff, A. N. and Decety, J. (2003). What imitation tells us about social cognition: a

rapprochement between developmental psychology and cognitive neuroscience. Philos Trans

R Soc Lond B Biol Sci, 358 (1431), 491-500.

Menon, V. and Levitin, D. J. (2005). The rewards of music listening: response and

physiological connectivity of the mesolimbic system. Neuroimage, 28 (1), 175-84.

Mesulam, M. M. (1998). From sensation to cognition. Brain, 121(6), 1013-52.

Murray, M. M.; Molholm, S.; Michel, C. M.; Heslenfeld, D. J.; Ritter, W.; Javitt, D. C.;

Schroeder, C. E. and Foxe, J. J. (2005). Grabbing your ear: rapid auditory-somatosensory

multisensory interactions in low-level sensory cortices are not constrained by stimulus

alignment. Cereb Cortex, 15 (7), 963-74.

Nakamura, S.; Sadato, N.; Oohashi, T.; Nishina, E.; Fuwamoto, Y. and Yonekura, Y. (1999).

Analysis of music-brain interaction with simultaneous measurement of regional cerebral

blood flow and electroencephalogram beta rhythm in human subjects. Neuroscience Letters,

275 (3), 222-226.

Nam, U. (1998). Pitch distribution in Korean court music. Evidence consistent with tonal

hierarchies. Music Perception, 16 (2), 243-247.

Nicholson, K.G.; Baum, S.; Kilgour, A.; Koh, C.K.; Munhall, K. G. and Cuddy, L. L.

(2003). Impaired processing of prosodic and musical patterns after right hemisphere damage.

Brain Cogn, 52 (3), 382-9.

Ohnishi, T.; Matsuda, H.; Asada, T.;, Aruga, M.; Hirakata, M.; Nishikawa, M.; Katoh, A. and

Imabayashi, E. (2001). Functional anatomy of musical perception in musicians. Cerebral

Cortex, 11 (8), 754-760.

Overy, K. (2003). Dyslexia and music. From timing deficits to musical intervention. Ann N Y

Acad Sci, 999, 497-505.

Overy, K.; Nicolson, R. I.; Fawcett, A.J. and Clarke, E. F. (2003). Dyslexia and music:

measuring musical timing skills. Dyslexia, 9 (1), 18-36.

Panksepp J. Hypothalamic regulation of energy balance and feeding behavior. 1974. Nutrition

1995, 11 (4), 402; discussion 401, 403.

Panksepp, J. and Bernatzky, G. (2002). Emotional sounds and the brain: the neuro-affective

foundations of musical appreciation. Behavioural Processes, 60 (2) 133-155.

Papousek, H. (1996). Musicality in infancy research: Biological and cultural origins of early

musicality. In I. Deliège & J. Sloboda (Eds.), Musical beginnings (pp. 37-55). Oxford: Oxford

University Press.

Papousek, M. (1996b). Intuitive parenting: a hidden source of musical stimulation in infancy.

In: I. Deliège, I. & U. Sloboda (Ed.). Musical beginnings. (pp..88-112) Oxford: Oxford

University Press.

Parsons L. M. (2001). Exploring the functional neuroanatomy of music performance,

perception, and comprehension. Ann NY Acad Sci 930, 211-231

Patel, A. D. (2003a). Language, music, syntax and the brain. Nat Neurosci, 6 (7), 674-81.

Patel, A. D. (2003b). Rhythm in language and music: parallels and differences. Ann N Y Acad

Sci, 999, 140-3.

Patel, A. D. and Balaban, E. (2004). Human auditory cortical dynamics during perception of

long acoustic sequences: phase tracking of carrier frequency by the auditory steady-state

response. Cereb Cortex, 14 (1), 35-46.

Patel, A.D. and Daniele, J. R. (2003). An empirical comparison of rhythm in language and

music. Cognition, 87, B35-45.

Patel, A. D., Iversen, J. R., & Rosenberg, J. C. (2006). Comparing the rhythm and melody of

nspeech and music: The case of British English and French. Journal of the Acoustical Society

of America, 119, 3034-3047.

Patel, A. D.; Peretz, I.; Tramo, M. and Labreque, R. (1998). Processing prosodic and musical

patterns: A neuropsychological investigation. Brain and Language, 61 (1), 123-144.

Penhune, V. B.; Zatorre, R. J. and Feindel, W. H. (1999). The role of auditory cortex in

retention of rhythmic patterns as studied in patients with temporal lobe removals including

Heschl's gyrus. Neuropsychologia, 37 (3), 315-331.

Peretz, I. (1990). Processing of Local and Global Musical Information by Unilateral Brain-

Damaged Patients. Brain, 113 (4), 1185-1205.

Peretz, I. (2006). The nature of music from a biological perspective Cognition, vol. 100, pp. 1-

32

Peretz, I. and Babai M. (1992). The role of contour and intervals in the recognition of melody

parts: evidence from cerebral asymmetries in musicians. Neuropsychologia, 30 (3), 277-92.

Peretz, I. and Coltheart, M. (2003). Modularity of music processing. Nature Neuroscience, 6

(7), 688-691.

Peretz, I. and Gagnon, L. (1999). Dissociation between recognition and emotional judgements

for melodies. Neurocase, 5, 21-30.

Peretz, I. and Hebert, S. (2000). Toward a biological account of music experience. Brain and

Cognition, 42 (1), 131-134.

Peretz, I.; Ayotte, J.; Zatorre, R. J.; Mehler, J.; Ahad, P.; Penhune, V. B. and Jutras, B. (2002).

Congenital amusia: A disorder of fine-grained pitch discrimination. Neuron, 33 (2), 185-191.

Peretz, I.; Belleville, S. and Fontaine, S. (1997). Dissociations between music and language

functions after cerebral resection: A new case of amusia without aphasia. Can J Exp Psychol,

51 (4), 354-68. (por que entre colchetes?)

Peretz, I.; Blood, A. J.; Penhune, V. and Zatorre, R. (2001). Cortical deafness to dissonance.

Brain, 124 (5), 928-940.

Phillips, D. P. and Farmer, M. E. (1990). Acquired word deafness, and the temporal grain of

sound representation in the primary auditory cortex. Behav Brain Res, 40 (2), 85-94.

Pinker, S. (1994). The Language Instinct. New York: Harper Perennial.

Pinker, S. (1999). How The Mind Works. New York: W.W. Norton & Company.

Platel, H.; Price, C.; Baron, J. C.; Wise, R.; Lambert, J.; Frackowiak, R. S. J.; Lechevalier, B.

and Eustache, J. (1997). The structural components of music perception - A functional

anatomical study. Brain, 120 (2), 229-243.

Pötzl, O. and Uiberall, H. (1937). Zur Patholgie der Amusie. Wien Klin. Wochenschr, 50,

770-775.

Ramachandran, V. S. and Hirstein, W. (1999). The science of art. Journal of Consciousness

Studies, 6, 15-41.

Ramus F.; Hauser, M. D.; Miller, C.; Morris, D. and Mehler, J. (2000). Language

discrimination by human newborns and by cotton-top tamarin monkeys. Science, 288 (5464),

349-51.

Saffran J.R.; Johnson E.K.; Aslin R.N.; Newport E.L. (1999). Statistical learning of tone

sequences by human infants and adults. Cognition, 70 (1), 27-52.

Saffran, J. R. and Griepentrog, G. J. (2001). Absolute pitch in infant auditory learning:

Evidence for developmental reorganization. Developmental Psychology, 37 (1), 74-85.

Saffran, J. R.; Loman, M. M. and Robertson, R. R. W. (2000). Infant memory for musical

experiences. Cognition, 77 (1), B15-B23.

Saint-Amour, D.; Saron, C. D.; Schroeder, C. E. and Foxe, J. J. (2005). Can whole brain nerve

conduction velocity be derived from surface-recorded visual evoked potentials? A re-

examination of Reed, Vernon, and Johnson (2004). Neuropsychologia, 43 (12), 1838-44.

Sakai, K.; Hikosaka, O.; Miyauchi, S.; Takino, R.; Tamada, T.; Iwata, N. K. and Nielsen, M.

(1999). Neural representation of a rhythm depends on its interval ratio. Journal of

Neuroscience, 19 (22), 10074-10081.

Satoh, M.; Takeda, K.; Nagata, K.; Hatazawa, J. and Kuzuhara, S. (2001). Activated brain

regions in musicians during an ensemble: a PET study. Cognitive Brain Research, 12, 101-

108.

Satoh, M.; Takeda, K.; Nagata, K.; Hatazawa, J. and Kuzuhara, S. (2003). The anterior

portion of the bilateral temporal lobes participates in music perception: a positron emission

tomography study. Am J Neuroradiol, 24 (9), 1843-8.

Saygin, A. P.; Dick, F.; Wilson, S.M.; Dronkers, N.F. and Bates, E. (2003). Neural resources

for processing language and environmental sounds: evidence from aphasia. Brain, 126 (4),

928-45.

Schroeder, C. E. and Foxe, J. (2005). Multisensory contributions to low-level, 'unisensory'

processing. Curr Opin Neurobiol, 15 (4), 454-8.

Schuppert, M.; Munte, T.F.; Wieringa, B.M. and Altenmuller, E. (2000). Receptive amusia:

evidence for cross-hemispheric neural networks underlying music processing strategies.

Brain, 123 (3), 546-559.

Sergent, J.; Zuck, E.; Terriah, S. and Macdonald, B. (1992). Distributed Neural Network

Underlying Musical Sight-Reading and Keyboard Performance. Science, 257 (5066), 106-

109.

Shams, L.; Iwaki, S.; Chawla, A. and Bhattacharya, J. (2005). Early modulation of visual

cortex by sound: an MEG study. Neurosci Lett, 378 (2), 76-81.

Shannon, R. V.; Zeng, F. G.; Kamath, V.; Wygonski, J. and Ekelid, M. (1995). Speech

recognition with primarily temporal cues. Science, 270 (5234), 303-4.

Shimojo, S. and Shams, L. (2001). Sensory modalities are not separate modalities: plasticity

and interactions. Curr Opin Neurobiol, 11 (4), 505-9.

Smith, E. E.; Jonides, J. and Koeppe, R. A. (1996). Dissociating verbal and spatial working

memory using PET. Cereb Cortex, 6 (1), 11-20.

Steinke, W. R.; Cuddy, L.L. and Jakobson, L. S. (2001). Dissociations among functional

subsystems governing melody recognition after right-hemisphere damage. Cognitive

Neuropsychology, 18 (5), 411-437.

Studdert-Kennedy, M. and Mody, M. (1995). Auditory temporal perception deficits in the

reading-impaired: a critical review of the evidence. Psychon Bull Rev, 2, 508-514.

Swisher, L. and Hirsh, I. J. (1972). Brain damage and the ordering of two temporally

successive stimuli. Neuropsychologia, 10 (2), 137-52.

Tallal, P.; Miller, S. and Fitch, R. H. (1993). Neurobiological basis of speech: a case for the

preeminence of temporal processing. Ann N Y Acad Sci, 682, 27-47.

Tasaki, H. (1982). [Perception of music stimuli by the Dichotic Listening Test--studies on

college students making a specialty of music]. No To Shinkei, 34, 1051-7. em colchetes?

ter Keurs, M.; Brown, C.M.; Hagoort, P. and Stegeman, D. F. (1999). Electrophysiological

manifestations of open- and closed-class words in patients with Broca's aphasia with

agrammatic comprehension. An event-related brain potential study. Brain, 122 (5), 839-54.

Tincoff, R.; Hauser, M.; Tsao, F.; Spaepen, G.; Ramus, F. and Mehler, J. (2005). The role of

speech rhythm in language discrimination: further tests with a non-human primate. Dev Sci, 8

(1), 26-35.

Toiviainen, P., & Eerola, T. (2003). Where is the Beat?: Comparison of Finnish and South

African Listeners. In R. Kopiez, A. C. Lehmann, I. Wolther & C. Wolf (Eds.), Proceedings of

the 5th Triennial ESCOM Conference (pp. 501-504). Hanover, Germany: Hanover University

of Music and Drama

Trainor, L. J.; McDonald, K. L. and Alain, C. (2002a). Automatic and controlled processing

of melodic contour and interval information measured by electrical brain activity. Journal of

Cognitive Neuroscience, 14 (3), 430-442.

Trainor, L. J. and Trehub, S. E. (1992). A Comparison of Infants and Adults Sensitivity to

Western Musical Structure. Journal of Experimental Psychology-Human Perception and

Performance, 18 (2) 394-402.

Trainor, L. J.; Tsang, C. D. and Cheung, V. H. W. (2002b). Preference for consonance in 2-

and 4-month-old infants. Music Perception, 20 (2), 187-194.

Tramo, M. J., Cariani, P. A., Delgutte, B., & Braida, L. D. (2001). Neurobiological

foundations for the theory of harmony in western tonal music. Ann N Y Acad Sci, 930, 92-116.

Trehub, S. E. (2003). The developmental origins of musicality. Nat Neurosci, 6 (7), 669-73.

Trehub, S. E.; Schellenberg, E. G. and Kamenetsky, S. B. (1999). Infants' and adults'

perception of scale structure. Journal of Experimental Psychology-Human Perception and

Performance, 25 (4), 965-975.

Trehub, S. E.; Thorpe, L. A. and Trainor, L. J. (1990). Infants' perception of good and bad

melodies. Psychomusicology, 9, 5-19.

Trevarthen, C. (1979). Communication and cooperation in early infancy: a description of

primary intersubjectivity. In: Bullowa, M. (Ed.). Before speech: the beginning of

interpersonal communication (pp.321-347). New York: Cambridge University Press.

Trevarthen, C. (1999). Musicalty and the intrinsic motive pulse: evidence from human

psychobiology and infant communication. Musicae Scientiae, Special Issue, 155-215.

Trevarthen, C. (2000). Autism as a neurodevelopmental disorder affecting communication

and learning in early childhood: prenatal origins, post natal course and effective educational

support. Prostaglandins Leukotrienes and Essential Fatty Acids, 63 (1-2), 41-46.

Wilson, S. J. and Pressing, J. (1999). Neuropsychological assessment and the modeling of

musical deficits. In: Pratt, R.R. and Erdonmez Grocke, D. E. (Eds). Music Medicine and

Music Therapy: Expanding Horizons (pp. 47-74). Melbourne: University of Melbourne Press.

Wilson, S. J.; Pressing, J. L. and Wales, R. J. (2002). Modelling rhythmic function in a

musician post-stroke. Neuropsychologia, 40 (8), 1494-1505.

Zatorre, R. J.; Belin, P. and Penhune, V. B. (2002). Structure and function of auditory cortex:

music and speech. Trends in Cognitive Sciences, 6 (1), 37-46.

Zatorre, R. J., Evans, A. C., & Meyer, E. (1994). Neural Mechanisms Underlying Melodic

Perception and Memory for Pitch. Journal of Neuroscience, 14 (4) 1908-1919.

Zatorre, R. J., Evans, A. C., Meyer, E., & Gjedde, A. (1992). Lateralization of Phonetic and

Pitch Discrimination in Speech Processing. Science, 256 (5058), 846-849.

Zatorre, R. J., Perry, D. W., Beckett, C. A., Westbury, C. F., & Evans, A. C. (1998).

Functional anatomy of musical processing in listeners with absolute pitch and relative pitch.

Proceedings of the National Academy of Sciences of the United States of America, 95 (6),

3172-3177.

Zentner, M. R., & Kagan, J. (1996). Perception of music by infants. Nature, 383 (6595), 29-

29.