Encontre milhões de e-books, audiobooks e muito mais com um período de teste gratuito

Apenas $11.99/mês após o término do seu período de teste gratuito. Cancele a qualquer momento.

Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980: uma análise do framing
Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980: uma análise do framing
Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980: uma análise do framing
E-book286 páginas3 horas

Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980: uma análise do framing

Nota: 0 de 5 estrelas

()

Ler a amostra

Sobre este e-book

Esta pesquisa busca investigar o modo pelo qual os sentidos são cognitivamente construídos em letras de canção de Roberto e Erasmo Carlos da década de 1980 que abordam, especificamente, os conceitos NATUREZA e SEXO. Para tanto, adota o modelo de análise de frames aplicado ao discurso (DUQUE, 2015), que possibilita verificar o acionamento desses mecanismos cognitivos a partir de dimensões variadas e, com isso, identificar a estrutura reticulada de sentidos que é tecida em torno do discurso. Para lançar luz aos nossos objetivos, busca suporte teórico na Linguística Cognitiva de base Corporificada, mais precisamente em alguns de seus princípios fundantes, como as noções de categorização (WITTGENSTEIN, 1953; ROSCH et al., 1976; LAKOFF, 1987) e corporalidade (MERLEAU-PONTY, 1945, 1964; LAKOFF, JOHNSON, 1999; EVANS, GREEN, 2006), bem como em duas de suas categorias analíticas: frames (FILLMORE, 1976; GALLESE, LAKOFF, 2005; FELDMAN, 2006; LAKOFF, 2009; LAKOFF, WEHLING, 2012; DUQUE, 2015) e metáforas (LAKOFF, JOHNSON, 1980 [2002]; LAKOFF, 2008). Esta pesquisa é de natureza qualitativa, visto que a análise recai sobre a totalidade de um determinado fenômeno, a construção de sentidos, e, para isso, não recorre a representatividades numéricas ou à quantificação de valores (GERHARDT; SILVEIRA, 2009). As informações obtidas na análise apresentaram indícios que sugerem a existência de um padrão no tocante ao modo pelo qual as temáticas analisadas são cognitivamente construídas nas letras de canção compostas por Roberto e Erasmo Carlos da década de 1980, como a perspectiva moral conservadora utilizada para abordar os conceitos NATUREZA e SEXO.
IdiomaPortuguês
Data de lançamento2 de mar. de 2021
ISBN9786558779520
Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980: uma análise do framing

Relacionado a Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980

Ebooks relacionados

Linguística para você

Visualizar mais

Artigos relacionados

Avaliações de Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980

Nota: 0 de 5 estrelas
0 notas

0 avaliação0 avaliação

O que você achou?

Toque para dar uma nota

A avaliação deve ter pelo menos 10 palavras

    Pré-visualização do livro

    Construção de sentidos em letras de canção de Roberto e Erasmo Carlos da década de 1980 - Ilana Souto de Medeiros

    Aspect.

    1. REFERENCIAL TEÓRICO

    Discorremos, neste capítulo, sobre os princípios fundantes da LC de base corporificada, abordagem que embasa teórica e metodologicamente o trabalho apresentado neste livro, assim como sobre as categorias analíticas que são centrais para nossa pesquisa: frames e metáforas. Para tanto, o organizamos da seguinte maneira: nas duas primeiras seções (1.1. e 1.2.), traçamos o itinerário histórico da LC, dando ênfase, principalmente, às duas gerações cognitivistas; nas seções seguintes (1.3. e 1.4.), apresentamos, respectivamente, dois conceitos basilares à LC: o de categorização e o de corporalidade; e, por fim, nas seções 1.5. e 1.6., discorremos, nesta ordem, sobre as noções de frame e de metáfora.

    1.1 A PRIMEIRA GERAÇÃO COGNITIVISTA E A METÁFORA DO COMPUTADOR

    O corpo é visto como um mero dispositivo mecânico que converte os inputs do mundo externo em outputs que são captados por nossa mente como representações simbólicas.

    (Mark Johnson)

    No início do século XX, a Linguística e algumas outras ciências, de modo geral, foram bastante influenciadas pelas ideias behavioristas, inicialmente apresentadas pelo psicólogo americano John Watson e posteriormente desenvolvidas por B. F. Skinner. Esse paradigma, também conhecido como comportamentalista, surgiu para romper com o modelo da psicologia mentalista da época, proposta por Wundt, cujo objeto de estudo era a consciência.

    Em 1913, no artigo intitulado Psychology as the Behaviorist views it³, Watson propôs que a consciência, enquanto objeto de estudo da psicologia, deveria dar lugar ao comportamento. Além disso, o psicólogo americano também sugeriu que o método da introspecção, até então utilizado como via de acesso às atividades humanas, fosse substituído pela observação (CARRARA, 2004).

    Em outras palavras, seguindo a tendência objetivista da época, Watson propôs que a Psicologia deveria se preocupar com fatores externos ao indivíduo e, por essa razão, aspectos referentes à consciência, assim como experiências de natureza subjetiva, passaram a ser vistos como irrelevantes. Segundo ele, a Psicologia, sob a ótica behaviorista,

    [...] é um ramo puramente experimental da ciência natural. Seu objetivo teórico é a previsão e o controle do comportamento. A introspecção não faz parte dos seus métodos, nem o valor científico de seus dados depende da facilidade com que eles podem ser interpretados em termos de consciência (WATSON, 1913, p. 158 [tradução nossa]⁴).

    Em linhas gerais, o princípio fundante das teorias behavioristas de Watson e Skinner, também conhecidas como condicionamento clássico e condicionamento operante, respectivamente, refere-se à noção de que o comportamento é decorrente de uma relação mecânica entre estímulo e resposta.

    Dentro da Linguística, esse pressuposto fez com que a língua fosse concebida como produto de fatores externos e mensuráveis. Para um dos principais defensores desse raciocínio, o linguista norte-americano Leonard Bloomfield, o comportamento linguístico seria socialmente condicionado, ou seja, seria uma resposta provocada pelos estímulos fornecidos pela interação social (KENEDY, 2015).

    Por acreditar que o estudo da língua deveria partir de fenômenos observáveis, Bloomfield descartou de suas análises aspectos de natureza semântica. Por essa razão, a questão do significado, como chegou a afirmar, representaria [...] o ponto fraco da ciência da linguagem [...] (BLOOMFIELD, 1933, p. 140 [tradução nossa]⁵).

    Somente no final da década de 1950, o paradigma behaviorista, que, até então, subsidiava teórica e metodologicamente os estudos da linguagem, passou a ser questionado. Fatores internos, até então desconsiderados, passaram a ocupar papel de destaque nas agendas de estudo acerca dos fenômenos linguísticos. Nesse sentido, a concepção empiricista do behaviorismo foi dando lugar aos princípios da tradição racionalista.

    Essa nova tendência, de natureza anticomportamentalista, iniciou-se a partir das ideias propostas por Noam Chomsky. Em 1956, em um congresso realizado nos Estados Unidos, Chomsky argumentou que a linguagem humana, assim como um computador, possuía propriedades formais que poderiam ser vistas como [...] verdadeiros programas cognitivos (COSTA; DUQUE, 2009, p. 3).

    Em 1959, a oposição do linguista aos princípios behavioristas tornou-se ainda mais evidente. Numa resenha feita sobre o livro Verbal Behavior⁶, de B. F. Skinner, Chomsky fez duras críticas ao modelo comportamentalista e chegou a afirmar que a tese do psicólogo americano [...] só pode ser aplicada ao comportamento humano de maneira grosseira e superficial (1959, p. 49 [tradução nossa]⁷).

    O pressuposto básico defendido pelo linguista norte-americano é o de que a linguagem só pode ser compreendida levando-se em consideração fatores internos, como os aspectos da cognição humana. O eixo central da sua teoria gerativista, como ficou conhecida, sustenta-se na hipótese de que os seres humanos possuem um dispositivo biológico para a aquisição da linguagem.

    Esse dispositivo, visto como um órgão mental, estaria depositado em uma área específica do cérebro e seria composto por princípios inatos relacionados à estrutura gramatical das línguas. Na base desse pensamento, encontra-se a noção de modularidade, outra hipótese defendida por Chomsky, que resgatou os princípios do que convencionalizou-se como o dualismo cartesiano mente/corpo. O cérebro humano, nessa perspectiva, passa a ser visto como supramodal, uma vez que se organiza em módulos distintos que atuam independentemente do restante do corpo (GALLESE; LAKOFF, 2005).

    De acordo com a teoria gerativista, um desses módulos seria responsável pela aquisição da linguagem e, tal qual um software, estaria organizado por um conjunto de componentes lógicos pré-programados. Esse módulo, que Chomsky definiu como faculdade da linguagem, é considerado um dispositivo

    [...] inato, presente em todos os seres humanos [...] que nos fornece um algoritmo, isto é, um sistema gerativo, um conjunto de instruções passo a passo – como as inscritas num programa de computador – o qual nos torna aptos para desenvolver (ou adquirir) a gramática de uma língua (KENEDY, 2015, p. 135).

    Esse conjunto de instruções, que, na teoria gerativista, é nomeado de princípios, se manifesta de modo específico, a partir dos parâmetros de cada língua. Essas noções podem ser ilustradas, por exemplo, no modo como as línguas portuguesa e inglesa organizam, sintaticamente, e a partir de seus próprios parâmetros, elementos como substantivos e adjetivos, tidos como princípios universais. No português, os substantivos tendem a se posicionar antes dos adjetivos, como em enunciados do tipo uma casa grande. Os parâmetros da língua inglesa, por outro lado, organizam esses elementos de modo contrário, posicionando o adjetivo antes do substantivo ("a big house").

    Graças às ideias defendidas por Chomsky, que serviram de base para as pesquisas da primeira geração das Ciências Cognitivas, compostas por outras áreas do conhecimento, tornou-se bastante comum comparar a mente humana a uma máquina. Nesse sentido, como lembram Costa e Duque (2009, p. 3), em pouco tempo [...] psicólogos e neurocientistas passaram a afirmar que o cérebro era um computador [...]. Nessa mesma linha de raciocínio, Gallese e Lakoff (2005, p. 456 [tradução nossa]⁸) chamam a atenção para o fato de que a mente, naquela época, foi concebida como um [...] sistema funcional, cujos processos poderiam ser descritos em termos de manipulação de símbolos abstratos de acordo com um conjunto formal de regras sintáticas.

    Uma das maiores contribuições da teoria chomskyniana foi redirecionar a perspectiva de análise em relação aos fenômenos linguísticos. Se, na abordagem estruturalista, a língua era vista como decorrente de fatores externos, Chomsky deu ênfase aos aspectos internos, ao considerar que a linguagem é inata, ou seja, é graças ao linguista que a ideia de cognição se insere no cenário da Linguística.

    Apesar do sucesso obtido pelo empreendimento gerativista, novos estudos passaram a revelar que ele não dava conta de todos os aspectos relacionados à cognição, e, principalmente, ao campo semântico, o que permitiu que alguns de seus pressupostos, como o da modularidade da mente, fossem repensados. Na base desse novo paradigma, o realismo racionalista, que fundamentou o pensamento chomskyniano, dá lugar a uma visão experiencialista.

    1.2 REALISMO EXPERIENCIAL: A SEGUNDA GERAÇÃO COGNITIVISTA

    A razão não é uma característica transcendente do universo ou de uma mente desvinculada do corpo. Ao invés disso, ela é crucialmente formada pelas particularidades dos nossos corpos, pelos extraordinários detalhes da estrutura neural dos nossos cérebros, e pelas especificidades do nosso funcionamento cotidiano no mundo.

    (George Lakoff e Mark Johnson)

    A segunda geração cognitivista tem suas origens na década de 1970, quando um pequeno grupo de pesquisadores, inicialmente formado por Paul Postal, George Lakoff, Háj Ross e James McCawley, passou a desenvolver estudos que divergiam das abordagens formais predominantes nas disciplinas de Linguística e Filosofia daquela época. Esse grupo, que ficou conhecido como Os Quatro Cavaleiros do Apocalipse, fundou o movimento da Semântica Gerativa, responsável por inserir a questão do significado nas análises dos fenômenos linguísticos (FELTES, 2007).

    Se, tradicionalmente, vários ramos das Ciências Cognitivas percebiam a mente como um processador abstrato de informações, diversos estudos passaram a demonstrar, ao longo dos anos, que os processos cognitivos, ao contrário do que se pensava até então, estavam profundamente enraizados em relação ao corpo físico e à sua interação com o mundo (WILSON, 2002).

    No campo da Linguística, essa nova compreensão a respeito da não-modularidade da mente humana deu origem à LC. Essa nova abordagem, de natureza semantocêntrica, propõe uma visão integradora acerca do fenômeno da linguagem e busca inspiração em outros ramos da ciência que enfatizam a importância da experiência humana, como a Psicologia e a Filosofia (EVANS; GREEN, 2006). Além disso, sugere que o sistema sensório-motor do cérebro, assim como a linguagem, antes vistos como supramodais, são, na verdade, multimodais (GALLESE; LAKOFF, 2005).

    Os pressupostos básicos da LC rompem com os princípios da tradição filosófica objetivista, segundo os quais a razão humana é autônoma e desvinculada dos aspectos relacionados à percepção e ao corpo, ou, como aponta Johnson (1989, p. 110 [tradução nossa]⁹), uma estrutura [...] transcendente, autossuficiente e a-histórica, que existe independentemente da mente. Ao pressupor a existência de uma realidade externa a priori, as abordagens de base objetivista concebem a língua como um instrumento, cuja função seria a de representar os elementos dessa realidade objetivamente posta.

    Trabalhos desenvolvidos no âmbito das Ciências Cognitivas (LAKOFF; JOHNSON, 1999; WILSON, 2002; GALLESE; LAKOFF, 2005; EVANS; GREEN, 2006; dentre outros), por outro lado, mostraram que nossa apreensão da realidade externa não ocorre de maneira objetiva. Algumas descobertas evidenciaram, segundo Lakoff e Johnson (1999, p. 17 [tradução nossa]¹⁰), que: 1) a razão humana é uma forma de razão animal, inextrincavelmente ligada aos nossos corpos e às particularidades dos nossos cérebros; e 2) que nossos corpos, cérebros e nossa interação com o ambiente fornecem a maior parte da base inconsciente do nosso senso do que é real. Logo, esse senso de realidade, de acordo com os autores,

    [...] começa e depende crucialmente de nossos corpos, especialmente de nosso aparato sensório-motor [...] e das estruturas detalhadas de nossos cérebros, que foram moldados pela evolução e pela experiência (idem, p. 17 [tradução nossa]¹¹).

    Essa compreensão acerca da realidade, que eles nomearam de realismo experiencial, advoga que nossa apreensão do real é mediada, em grande parte, pela natureza única dos nossos corpos.

    É oportuno destacar, a respeito dessa visão, que os linguistas cognitivistas não negam a existência de uma objetividade física no mundo e independente dos seres humanos. O que o realismo experiencial propõe, na verdade, é que as partes dessa realidade externa, às quais temos acesso, são limitadas por nossas especificidades corpóreas e por nosso nicho ecológico (EVANS; GREEN, 2006).

    1.3 CATEGORIZAÇÃO: FUNÇÃO COGNITIVA BASILAR À ORGANIZAÇÃO DAS EXPERIÊNCIAS HUMANAS

    A primeira e mais importante coisa a perceber sobre a categorização é que ela é consequência inevitável da nossa composição biológica. Somos seres neurais. Nossos cérebros, cada um, têm 100 bilhões de neurônios e 100 trilhões de conexões sinápticas.

    (George Lakoff e Mark Johnson)

    Nesta seção, tratamos especificamente de uma capacidade primária e inerente a todos os seres vivos: a categorização, que, em linhas gerais, está associada ao modo como os seres classificam e agrupam, a partir de critérios específicos, os elementos com os quais interagem no mundo.

    O ato de categorizar, como lembram Duque e Costa (2012, p. 20), resulta [...] na diminuição da quantidade de informação que temos de aprender, perceber, recordar e reconhecer. Além de promover essa economia de ordem cognitiva, a categorização se configura como um mecanismo de autopreservação das espécies. Em se tratando da espécie humana, isso fica evidente ao pensarmos que, caso nossos ancestrais não tivessem aprendido a se proteger, por exemplo, daquilo que categorizaram como sendo ameaça à vida, possivelmente não haveriam sobrevivido e, consequentemente, nossa espécie não teria evoluído.

    Em nosso livro, partimos do pressuposto de que a categorização é um processo cognitivo básico que organiza nossas experiências e nos permite dar sentido ao mundo. Antes de ser associada a essa concepção, contudo, a noção de categorização percorreu uma longa trajetória conceitual. Nesse sentido, para mostrarmos suas diferentes perspectivas e, no intuito de didatizarmos a leitura, organizamos esta seção com base em critérios cronológicos a partir dos seguintes tópicos: a) Teoria Clássica de Categorização; b) Semelhanças de Família de Wittgenstein; c) Versão padrão da Teoria dos Protótipos; e d) Versão ampliada da Teoria dos Protótipos e outras perspectivas.

    a) Teoria Clássica de Categorização

    A tradição filosófica clássica, desenvolvida na Grécia Antiga, é fundamental para que possamos construir as primeiras noções acerca da categorização, uma vez que, graças a ela, as relações entre a linguagem e o mundo passaram a ser discutidas. No centro dessas discussões, buscou-se compreender como a linguagem atribui significado aos elementos do mundo: a partir de aspectos arbitrários, ou a partir de alguma propriedade comum? A busca por respostas para essas questões foi alvo de embates filosóficos entre duas correntes de pensamento.

    A primeira delas, a nominalista, defendeu a ideia de que o modo como a linguagem representa os elementos do mundo era puramente arbitrário, ou seja, o único aspecto em comum existente entre os membros de uma categoria seria a forma como aprendemos, por convenção, a nomeá-los. Esse pensamento, como enfatizam Duque e Costa (2012), se alinha à noção de arbitrariedade da língua, proposta no século XX pelo linguista suíço Ferdinand de Saussure.

    Segundo a perspectiva realista, por outro lado, os elementos do mundo seriam nomeados com base em propriedades essenciais, que permitissem identificá-los como pertencentes ou não pertencentes a uma determinada categoria. Na base desse pensamento, defendido por Aristóteles, encontra-se a premissa de que a essência é [...] o que faz com que alguma coisa seja o que é, ou seja, é a causa imanente da existência dos entes [...] (DUQUE, 2001, p. 2). Assim, de acordo com essa concepção, que perpassa a visão aristotélica, todos os membros de uma categoria como HOMEM¹², por exemplo, necessitariam compartilhar atributos essenciais como ser racional, bípede, entre outros. Ou seja, os membros de uma categoria, de acordo com essa abordagem, são definidos por traços binários e homogêneos.

    Essa perspectiva, inserida no que ficou conhecida como Teoria Clássica de Categorização, influenciou sobremaneira o pensamento ocidental. Embora não tenha sido resultado de estudos empíricos, mas de uma posição filosófica especulativa, como destaca Lakoff (1987), esse modelo perdurou por mais de dois mil anos e, somente a partir do século XX, passou a ser questionado.

    b) Semelhanças de Família de Wittgenstein

    Uma notável ruptura em relação à perspectiva clássica se deu na esfera da Filosofia, com a publicação, em 1953, da obra Philosophical Investigations¹³, de Ludwig Wittgenstein. Nela, o filósofo austríaco afirma que as categorias não devem ser pensadas com base em propriedades essenciais, como havia proposto Aristóteles. Para justificar tal premissa, Wittgenstein discorre sobre o clássico exemplo da categoria JOGO:

    Considere, por exemplo os processos daquilo que chamamos ‘jogos’. Estou me referindo a jogos de tabuleiro, jogos de cartas, jogos de bola, jogos olímpicos, e assim por diante. O que há em comum a todos eles? – Não diga: "Deve haver algo em comum, ou eles não seriam chamados ‘jogos’ – mas veja se há algo comum a eles. Pois se você olhar para eles, não verá nada que seja comum a todos, mas perceberá semelhanças, parentescos e, toda uma série de elos [...]. [...] E o resultado deste exame é: vemos uma complicada rede de semelhanças que se envolvem e se cruzam mutuamente [...] (WITTGENSTEIN, 1953, §66, p. 31-32 [tradução nossa]¹⁴).

    O filósofo percebeu, ao observar essa categoria, ser praticamente impossível precisar um denominador comum a todos os jogos, uma vez que uns envolvem SORTE; outros, HABILIDADE; outros, COMPETIÇÃO; e assim por diante. Nesse sentido, aquilo que determina a inclusão dos membros de uma dada categoria não é um conjunto de traços necessários e suficientes, mas sim, uma rede de semelhanças, que Wittgenstein definiu como semelhanças de família (family resemblance):

    Não posso caracterizar melhor essas semelhanças do que com a expressão ‘semelhanças de família’; pois é assim que se superpõem e entrecruzam as diversas semelhanças existentes entre os membros de uma família: estatura, cor dos olhos, andar, temperamento, etc. etc. E assim posso dizer: ‘jogos’ formam uma família (WITTGENSTEIN, §67, p. 32 [tradução nossa]¹⁵).

    Com essa noção, o filósofo também evidenciou o fato de que os limites de uma categoria podem ser bastante difusos, ou seja, é difícil precisar, categoricamente, quais membros a compõem. Nesse sentido, como assinala Duque (2001, p. 4), [...] as categorias tendem a fundir-se em outras [...]. É o que acontece, por exemplo, com um animal como a baleia. Ao compartilhar características de peixes e mamíferos, ao mesmo tempo, torna-se impossível circunscrevê-la a uma categoria fechada. O que ocorre, na verdade, é uma interseção entre categorias, como ilustra a figura 1.

    As descobertas feitas por Wittgenstein, como mencionamos anteriormente, abriram espaço para se repensar o processo de categorização. Posteriormente, suas ideias foram sistematizadas e empiricamente comprovadas por estudos realizados no interior da Psicologia Cognitiva. Dentre esses estudos, destaca-se a versão padrão da Teoria dos Protótipos, desenvolvida por Eleanor Rosch

    Está gostando da amostra?
    Página 1 de 1