Translate

Mostrando postagens com marcador viés da confirmação. Mostrar todas as postagens
Mostrando postagens com marcador viés da confirmação. Mostrar todas as postagens

09 fevereiro 2023

Viés da Confirmação

Narciso acha feio o que não é espelho, canta Caetano Veloso em Sampa. Contudo, não foi em São Paulo, mas em Londres, na década de 1960, que o psicólogo Peter Wason deu o nome de "viés de confirmação" para o mecanismo que induz a mente a aceitar as informações que sustentam as próprias crenças, em vez de questionar e ter abertura para analisar outros tipos de informação.

A ideia de uma mente racional, a serviço de apreender a realidade tal qual ela é, seguiu sendo desacreditada na década seguinte. Em 1979, foi realizado um estudo na Universidade Stanford, nos Estados Unidos, com estudantes universitários que tinham opiniões opostas sobre a pena de morte. Com base em dois artigos falsos - um que argumentava a favor e outro contra a pena de morte -, os estudantes apoiaram justamente aquele artigo que confirmava sua crença original. O estudo mostrou que ter as certezas contestadas serviu apenas como reforço para as próprias convicções.

Para os especialistas, a política e o futebol são campos de florescência do viés de confirmação. "A partir do momento em que você se expõe, você se cristaliza naquele posicionamento e aí você vai polarizando, polarizando...", diz a neurocientista Claudia Feitosa-Santana. "As pessoas estão polarizando até em relação a Neymar e Richarlison por causa da política."

Segundo Claudia, as conversas não ajudam a reduzir a polarização porque as pessoas acham que o diálogo está a serviço de desconstruir o argumento do outro. "A polarização política, da forma como ela é, só ajuda os próprios políticos. Eles conseguem conversar entre si, eles fazem acordos a portas fechadas, o eleitorado não." Há quem coloque na conta da empatia a solução. Acontece que a empatia, relacionada à verdadeira escuta, custa energia cerebral ou glicose, que é um recurso limitado.

"É muito difícil você conseguir empatizar com o que não faz parte do que você considera seu círculo moral", diz Claudia. "As pessoas hoje em dia focam em empatia, sendo que ninguém tem empatia com ninguém. Usam a palavra empatia para cobrar do outro empatia, não para ser empático. O foco na verdade é a palavra respeito e ninguém se respeita".

Alinhada ao viés de confirmação, a polarização política já chega formatada. "Quem é de esquerda tem que ser a favor do aborto. Se você é de direita, você tem que ser contra. Alguns autores chamam isso de identidade prêt-à-porter, uma identidade que já vem pronta, você só vai ali e veste", diz Sérgio Rodrigo Ferreira, pesquisador da Universidade Federal do Espírito Santo. "De certo modo, isso vai matando o aspecto mais subjetivo e mais diverso. Nós temos tido muita dificuldade de conviver com o contraditório por conta disso".

Se um ambientalista e um executivo de companhia petrolífera buscarem na internet por "mudanças climáticas", os resultados das buscas serão diferentes.

"Cada vez mais o monitor do nosso computador é uma espécie de espelho que reflete nossos próprios interesses, baseando-se na análise de nossos cliques feita por observadores algorítmicos", escreve o ativista Eli Pariser no livro O Filtro Invisível: O Que a Internet Está Escondendo de Você (Editora Zahar).

Ao mapear as preferências do usuário, o algoritmo forma as chamadas bolhas, delimitando as respostas de acordo com seus gostos. Isso gera uma autossatisfação viciante que pode isolar o indivíduo num sistema de conhecimento unilateral, reforçando sua visão em vez de expandi-la, assim como acontece com o viés de confirmação.

Mais do que as bolhas, existem ainda as câmeras de eco, que recebem a contribuição dos usuários para manter o alinhamento das crenças. "Quando recebe algum posicionamento diferente, além de ser ferrenhamente contrário a ele, o usuário exclui pessoas e conteúdos que divergem de si", explica Sérgio. "Não é apenas o algoritmo que está criando a bolha, mas os usuários ativamente estão construindo esses espaços fechados."

O constante reforço da própria opinião, evitando ter valores e crenças questionados, é abertura para a desinformação e para as fake news.

"O mundo é extremamente complexo hoje em dia. Nós temos muita dificuldade de enxergar e compreender a dimensão das várias camadas das coisas que acontecem e, de certo modo, na câmara de eco há uma simplificação do mundo a partir do que previamente eu já entendo, compreendo e creio. Eu faço o mundo caber na minha crença", considera Sérgio.

Claudia Feitosa-Santana traz um contraponto, lembrando que fazemos parte de grupos diversos, como veganos ou petlovers. "Nós não estamos todos exatamente dentro das mesmas bolhas. Nós temos muitos grupos e é isso que confere estabilidade para a nossa sociedade."

A falta de tempo, de conhecimento e de fontes confiáveis para filtrar a enxurrada de informações que recebemos pode colocar também a ciência no balaio do descrédito.

Amanda Moura de Sousa, pesquisadora na Universidade Federal do Rio de Janeiro, vem estudando a desinformação na área da saúde e a infodemia, o enorme fluxo de informações que invade a internet, diante da pandemia de covid-19.

"Para economizar o esforço de tentar lidar com algum fato, às vezes a gente precisa recorrer às nossas crenças, só que essas crenças podem levar para um caminho não muito saudável, que é eliminar a dúvida e se focar na certeza que você já tem", diz a especialista em ciência da informação.

Ela lembra de mensagens que circulavam no início da pandemia, dizendo que os laboratórios não tinham avançado suficientemente em seus estudos e usavam as pessoas como cobaias na aplicação de vacinas. Mais de 71% das mensagens falsas naquele período circulavam pelo WhatsApp, segundo análise do aplicativo Eu Fiscalizo, desenvolvido por pesquisadoras da Fiocruz. "Pela relação de desconfiança que as pessoas muitas vezes têm com os cientistas ou com o próprio fazer da ciência, que às vezes escapa à compreensão delas, elas acabam aderindo à desinformação sem buscar outra fonte", afirma Amanda.

O medo da complexidade e o viés de confirmação são também citados pela pesquisadora de Nova York Sara Gorman no livro Denying to the Grave: Why We Ignore the Facts That Will Save Us (Negando Até o Túmulo: Por Que Ignoramos os Fatos Que nos Salvarão, em tradução livre).

Segundo a autora, é tendência da mente enfatizar um pequeno risco, fortalecendo, assim, as próprias crenças. "Recusar-se a vacinar uma criança é um exemplo disso: aqueles que têm medo da imunização exageram o pequeno risco de um efeito colateral e subestimam a devastação que ocorre durante uma epidemia de sarampo ou apenas o quão letal a coqueluche pode ser", escreve.

Se a ciência é vista muitas vezes de forma distorcida, o próprio fazer científico não está imune ao viés de confirmação - simplesmente porque cientistas são também humanos.

Kelley Cristine Gasque, da Universidade de Brasília, investigou as percepções de cientistas em relação ao viés de confirmação no processo de busca e uso das informações em seu fazer científico.

"Uma questão que achei bastante interessante que surgiu é que esse viés pode ser influenciado pelo financiamento da pesquisa, pela exigência dos resultados e expectativa do mercado", comenta Kelley. "Empresas, por exemplo, que têm interesses econômicos vão investir muito em pesquisa e é óbvio que querem tal resultado. Então, você tem a tendência de buscar pesquisas em uma base que vai corroborar com aquilo que eles querem."

Também o desejo de que a pesquisa dê certo foi citado pelos cientistas como gatilho para o viés de confirmação.

O antídoto para o problema seria, segundo os próprios cientistas, ter uma boa formação acadêmica, buscar fontes diversificadas, manter o espírito aberto para pontos de vista diferentes, desenvolver o pensamento crítico e a criatividade.

"O ser humano não é que nem um bezerro ou um potro que sai da mãe já andando. Nós somos extremamente dependentes até nossos 2, 3 anos de idade. Nós dependemos dos outros para sobreviver e isso é extremamente assustador", observa João Luiz Cortez, especialista em programação neurolinguística.

Se a sobrevivência de hoje implica depender de um cuidador nos primeiros anos de vida, em tempos passados a dependência do grupo tinha peso e medida maiores. "Nós nos perpetuamos como espécie porque adquirimos a capacidade de viver em sociedade e é isso que nos fez resistir numa floresta inóspita com animais muito mais fortes do que nós", conta João.


Valores são construídos de forma complexa e ancorados na afetividade desde a primeira infância. Por isso, mudar certas certezas é difícil e vai além da questão do orgulho narcisístico. A base de crenças é esteio para a sobrevivência emocional.

Charles Peirce, filósofo e pedagogo americano nascido em 1839, afirmava que só a dúvida leva ao conhecimento e, para chegar a ele, passamos por uma alternância entre o desconforto da dúvida e a segurança da crença. Os métodos de fixação da crença listados por Peirce incluem apego, imposição, gostos e também, mas não apenas, o método científico.

Segundo João, ignorar fatos reais para proteger a estabilidade emocional representa um estado limitado de desenvolvimento pessoal. "À medida que eu vou me fortalecendo emocionalmente, espiritualmente, eu tenho uma estrutura, uma musculatura que me permite lidar com a realidade como ela é."

Apesar das bolhas, grupos, e algoritmos, não há o que unifique a experiência humana. "A maneira como nos sentimos nunca se repete no tempo e jamais é igual à forma como outra pessoa se sente", escreve Claudia Feitosa-Santana no livro Eu Controlo Como Me Sinto. "E os filósofos já sabiam disso havia muito tempo. Na Grécia Antiga, Heráclito, um dos pensadores mais antigos que conhecemos, afirmou o seguinte: Não podemos nos banhar no mesmo rio duas vezes."

Para além da soberania da razão, Caetano cantaria: "Alguma coisa acontece no meu coração". 

Originalmente publicado no Estado de S Paulo, por Sibélia Zanon, 21 de janeiro de 2023. Foto: Alice Yamamura

13 julho 2022

Viés da Confirmação



Um aspecto bom das finanças comportamentais é que vários dos seus conceitos são explicativos. O viés da confirmação é um deles. Como o nome diz, o viés refere-se a tendência a considerarmos a informação que confirma algo que acreditamos anteriormente. Isto inclui interpretar de maneira tendenciosa algo vago, desde que apoie àquilo que consideramos como correto. 


A figura a seguir resume o viés. Eu tenho uma crença prévia, que pode ser sobre religião, saúde, finanças ou qualquer outro assunto. Aparece uma informação sobre o tema. Se esta informação confirmar minha crença prévia, eu valorizo esta informação (é a nota dez da figura, na parte de cima). Se a informação não confirma ou contradiz o que acredito, eu coloco dúvidas na informação ou desconsidero. Isto é feito, em muitas situações, de forma sutil, sem que o processo da confirmação seja fruto de algo racional e claro. 


Outra forma de entender o viés da confirmação está na próxima figura. Quando os fatos encontram com sua crença sobre um determinado assunto, temos a tendência a superestimar tais fatos. Quando isto não ocorre, subestimamos a relevância dos fatos, por não satisfazer nossas crenças. 


 

Ao contrário do que podemos pensar, nossas opiniões não são resultantes de anos de análise racional e objetiva (1). Mas sim resultado de anos em que você voltou sua atenção para as informações que confirmavam aquilo que você acreditava, enquanto deixava de lado todas as coisas que desafiavam suas noções previamente definidas. 

***

Um experimento interessante foi realizado para mostrar como o viés da confirmação atua (2). Um grupo de pessoas assistiu um vídeo de uma garota respondendo a um teste. As pessoas também assistiram esta garota na aula. Após isto, as pessoas são convidadas a dar uma nota para o provável desempenho da menina em ciências, artes e matemática. O resultado obtido será necessário para fazer a comparação com as notas que foram dadas no segundo experimento. 


Novamente, as pessoas são convidadas a assistir um vídeo. Desta vez, para metade das pessoas, a garota está brincando em um bairro de classe alta; para outra metade, a garota está brincando em um bairro de classe baixa. As pessoas não assistem mais nada, mas são convidadas a dar uma nota para o que seria o desempenho da garota em ciências, artes e matemática. A menina é a mesma do primeiro experimento e a mudança que ocorreu é que o vídeo dela em sala de aula foi trocado por um vídeo brincando. As pessoas que assistiram o vídeo da garota brincando em um bairro de classe alta atribuíram uma nota mais alta em ciências, artes e matemática do que o primeiro experimento. Mas o grupo de pessoas que viu a garota brincando no bairro de classe baixa achava que seu desempenho seria pior do que aquele obtido no primeiro experimento e, naturalmente, bem pior quando a garota estava brincando no bairro de classe alta. 


Os pesquisadores prosseguiram com o experimento, agora juntando o primeiro experimento com o segundo. Para um grupo, foi mostrado um vídeo da garota brincando em um bairro de classe alta; depois, a menina responde a um teste e em sala de aula e finalmente atribuem uma nota para seu provável desempenho. A outra metade das pessoas fazem a mesma tarefa, só que a garota aparece brincando em um bairro de classe baixa. O desempenho termina sendo influenciado pelo primeiro vídeo. 


Há diversas pesquisas similares a esta. Em uma delas é solicitado a executivos expressar sua opinião sobre a aquisição de uma empresa (3). O pagamento é baseado no desempenho e informa aos participantes da pesquisa que seria possível acessar páginas da internet com detalhes da transação. Em algumas páginas, o artigo é claramente favorável; em outras páginas, o texto é contrário à transação. Depois de visitar as páginas, o executivo deve tomar a decisão, se favorável ou não ao processo de aquisição. O experimento registra a navegação do executivo, indicando as páginas visitadas e o tempo em cada uma delas. O resultado do experimento mostrou que o tempo usado por cada executivo era maior para olhar as páginas com uma posição favorável.  


Talvez o estudo mais conhecido seja um sobre pena de morte, publicado em 1979 (4). Neste estudo, as pessoas foram previamente separadas em dois grupos, em relação a sua posição sobre a pena de morte para os criminosos: favoráveis e contrários. Após esta separação, foram entregues artigos com argumentos dos dois lados, pró e contra. Depois da leitura, foi investigado a posição das pessoas sobre o assunto. Os pesquisadores notaram que aqueles que apoiavam a pena de morte, aumentaram seu índice de apoio; os que eram contrário, também aumentaram sua posição. Em outras palavras, as novas informações, com bons argumentos de ambos os lados, serviram para aumentar o radicalismo de cada grupo. Os argumentos que apoiavam a crença prévia eram valorizados; os argumentos no sentido oposto, eram minimizados. Examente o nosso conceito de viés da confirmação. 

***

O viés da confirmação é algo muito prático. O ciúme usualmente envolve situações com viés da confirmação. Imagine um casal, em que uma das partes começa a considerar a possibilidade de estar sendo traído. O sentimento não é comunicado, mas a cada gesto ou ação da outra parte é interpretada como uma confirmação de que realmente há uma traição na relação. 


Durante minha pesquisa sobre o viés da confirmação encontrei a seguinte frase do escritor francês Marcel Proust:  


 "É surpreendente como o ciúme, que passa seu tempo inventando tantas suposições mesquinhas mas falsas, carece de imaginação quando se trata de descobrir a verdade“ 


O amante ciumente teria uma atitude típica do viés de confirmação. O que Proust chamou de “inventar suposições” é a mesma atitude de valorizar o que seria um sinal claro de traição, esquecendo os sinais que não confirmam esta situação. 


A confirmação também está presente nas mídias sociais dos dias atuais. Participo de um grupo de muitas pessoas, que gostam de discutir política. Alguns são defensores do atual presidente; outros, contrários. Para os defensores, somente os argumentos favoráveis são importantes; para os opositores, os erros e problemas do atual governo são tão grandes que nenhum fato positivo deve ser considerado. 


O viés da confirmação está tão presente nos dias atuais que é possível prever a posição política de uma pessoa a partir de alguns poucos parâmetros (5). Provavelmente você gosta de um comentarista não pelas palavras que saem de sua boca, mas por que ele confirma suas crenças. 


Você decide comprar um livro sobre investimento no mercado acionário. Se você acredita que investir em ações é uma opção inteligente, sua escolha será no sentido de livros favoráveis ao mercado acionário. Mas se você acredita que o mercado é composto por um grande número de espertalhões, talvez você adquira um livro que fale dos escândalos que ocorrem no mercado.  Uma pesquisa mostrou que a compra de livros na Amazon em 2008, durante as eleições, mostrou que os que apoiaram Obama escolhiam livros que enfatizavam o lado positivo do presidente. Os que eram contrários, compravam livros críticos ao então futuro presidente (6).


***

Em geral lemos mais os artigos e livros que estão alinhados com nossa opinião. O viés da confirmação também ocorre quando começamos a prestar atenção em algo anterior, como uma decisão de compra ou uma música que escutamos. Se você decide comprar um celular novo, começa a ficar atento no que as pessoas dizem sobre aparelhos de telefone. Se ouvir uma música de manhã, uma referência no local de trabalho à música parecerá uma coincidência. 


Da mesma forma, o viés da confirmação parecerá preocupante quando você for fazer uma consulta a um médico, este pedir um exame e, ao olhar o laudo, informar que o resultado era aquilo que ele esperava. O viés da confirmação ajuda a explicar o racismo, o sexismo, as razões das pessoas jogarem e muitas situações práticas. 


Malcolm Gladwell escreveu um livro que mostra o viés da confirmação sob uma outra visão. Em Blink, Gladwell ressalta o poder da primeira impressão e como o sentimento que algumas pessoas possuem em acertar o caráter de uma pessoa em alguns poucos segundos. No livro, o autor destaca a relevância dos primeiros instantes de uma entrevista de emprego no seu resultado final. As informações posteriores, coletadas ao longo de toda a entrevista, teriam o carater confirmatório. Caso estas informações sejam contrárias à primeira impressão, as mesmas são descartadas ou reduzidas a uma menor importância. O livro de Gladwell fez muito sucesso e chamou a atenção para o viés da confirmação. 


***

Na área financeira, o viés da confirmação está presente em investimentos errados, mas que continuam sendo conduzidos. Neste caso, a gestão descarta as notícias ruins e enfatiza as notícias boas, para justificar a continuidade de um projeto. 


O problema do viés da confirmação também ocorre quando uma empresa decide adquirir um concorrente. O grande número de informações é filtrado de maneira seletiva. As que reforçam a decisão inicial de aquisição são enfatizadas. 


Este exemplo do parágrafo anterior é interessante por mostrar que “mais informação” não resolve o problema do viés da confirmação. Há alguns anos o site Edge fez uma pergunta para diversas pessoas sobre um conceito considerado importante. Uma resposta me chamou a atenção. O músico Brian Eno comentou o seguinte:

 

A grande promessa da Internet era que mais informações produziriam automaticamente melhores decisões. O grande desapontamento é que mais informações de fato rendem mais possibilidades de confirmar o que você já  acreditava de qualquer forma. 


Assim, não adianta ter mais informação. O problema do viés da confirmação é como usamos as informações disponíveis. A melhor maneira de evitar o problema é olhar o “outro lado” de forma criteriosa, sem descartar os argumentos e os dados. As evidências devem ser ponderadas honestamente. E sempre que possível, fazer o exercício de olhar as informações que contradizem nossa crença. 


Há um exercício interessante chamado Teste Ideológico de Turing. O teste de Turing foi criado há tempos para verificar se um computador ou um software consegue aproximar-se do raciocínio humano. Este é um teste similar, onde a ideia é olhar o lado oposto. Depois disto, solicita-se escrever um ensaio apresentando os argumentos que contradizem sua posição. Juízes neutros julgam se o texto expressa corretamente o lado oposto. Um exemplo: se tenho uma posição política de ser contrário ao presidente, tenho que construir um ensaio onde faço defesa dele, com argumentos favoráveis aos seus posicionamentos. O texto deve expressar os principais pontos que um defensor do presidente usaria. Somente após o teste ideológico de Turing é que seria possível você assumir uma posição - contra ou favor do presidente, por exemplo - sem ter um viés. 


Eu posso usar um similar quando pensar no time de futebol adversário que não gosto, na defesa de um investimento que é contrário ao meu perfil, nos argumentos favoráveis a uma política pública que condeno, entre outras situações. Procure fazer uma redação com os pontos de defesa da posição contrária a minha. Para isto será necessário mais informação e você irá valorizar substancialmente a informação que contradiz sua crença. 


****


1 - McRaney, David. Você não é tão esperto quanto pensa. São Paulo: Leya, 2013, capítulo 3. 

2 - Da pesquisa de John Darley e Paget Gross citado em Just, David. Introduction to Behavioral Economics, Wiley, 2014. 

3 - Vicki Bogan e David Just, também citado por Just, David, p. 97.

4 - A pesquisa foi conduzida por Leeper et al. Citada, por exemplo, em Montier, James. Behavioural Investing, 2007. 

5 - Uma pesquisa mostrou ser possível prever que uma pessoa apoiava o secretário de Estado dos Estados Unidos a partir de três pontos: se eram republicanos, se gostavam do exército e se gostavam de grupos de direitos humanos. Com estas três variáveis era possível prever, em 84% das vezes, o apoio ou não ao secretário de estado. A pesquisa é de Westen et al (2004) e foi citada por Angner, Erik. A Course in Behavioral Economics. Palgrave, 2012.

 

30 abril 2022

Competições de debate ajudam a entender o radicalismo

Como entender um pouco o radicalismo de nossas redes sociais? Uma pesquisa realizada nas competições de debates, onde os debatedores recebem a posição, a favor ou contra, sobre um assunto e precisam defender sua posição, pode dar uma pista sobre o assunto. Um resumo acessível pode ser encontrado aqui.

A pesquisa acompanhou as competições em diferentes fases. Quando a pesquisa começa, acredita-se que exista uma posição de equilíbrio sobre um determinado tema. Por exemplo, a favor ou contra entregar celular para uma criança. Quando o assunto é divulgado e feito o sorteio, há um tempo de preparação - de 15 minutos. Logo a seguir, os pesquisadores entrevistaram os participantes. Veja no gráfico que os pontos vermelhos distanciam dos pontos azuis, indicando que cada lado acredita na sua posição. (No gráfico, os pontos vermelhos representam quem é a favor da posição debatida, estando como "defensores"; os pontos azuis é quem é a favor da posição debatida, estando como "opositores") 

Após uma hora de debate, novamente os pesquisadores investigam as crenças, as confianças e as atitudes (as três partes do gráfico), revelando que ocorreram mudanças durante a competição. O ato de debater - mesmo antes do debate - faz com que as pessoas assumam sua posição de forma mais forte. É como se as pessoas "vestissem a camisa" do seu lado. 

Uma possibilidade de evitar o radicalismo é fazer algo que muitas pessoas já sabem: não entrem na discussão, pois isto aumenta a polarização. É algo que me faz lembrar a razão pela qual os ingleses gostam de falar sobre o tempo; ao contrário da política e do futebol, é muito difícil polarizar quando discutimos se amanhã irá chover ou se a temperatura está agradável. 

17 junho 2021

Falso Consenso

 


Se você já teve certeza do resultado de uma eleição, apenas para se sentir roubado, ou ficado surpreso quando seu parceiro adormecia durante seu filme favorito, então provavelmente você já experimentou o efeito de falso consenso (FCE) . 

O FCE é um viés cognitivo que faz com que as pessoas pensem que seus valores, crenças, ações, conhecimento ou preferências pessoais estão mais difundidos na população em geral ou em outros indivíduos do que realmente ocorre. O fenômeno foi cunhado pela primeira vez pelo psicólogo Lee Ross e seus colegas na década de 70.

Em um dos primeiros estudos abrangentes sobre o efeito, Ross perguntou a estudantes universitários se eles estariam dispostos a fazer uma caminhada de 30 minutos pelo campus para uma lanchonete que dizia "Comer no Joe's" - um restaurante fictício (mas os alunos não sabiam disso). Disseram-lhes que, se aceitassem, aprenderiam algo interessante como incentivo. Mas eles também eram livres para recusar a oferta. Depois de tomarem sua decisão, os alunos tiveram que adivinhar a porcentagem de outras pessoas que eles achavam que fariam a mesma escolha. 

Quase metade dos alunos estava disposta a aceitar, com a outra metade recusando. Aqueles que aceitaram acharam que, em média, 62% das outras pessoas fariam o mesmo. Os que se recusaram achavam que apenas 33% dos outros estariam dispostos a aceitar. Em cada grupo, os alunos presumiram que outras pessoas tomariam decisões semelhantes às suas, a uma taxa muito mais alta do que realmente acontecia. 

O estudo também pediu aos alunos que fizessem suposições sobre os traços de personalidade do tipo de pessoa que faria a escolha oposta. Ambos os grupos provavelmente rotularam o outro como “inaceitável” ou “defeituoso” de alguma forma. 

Nos anos anteriores à pesquisa de Ross e seus colegas, vários estudos investigaram o FCE em uma variedade de contextos diferentes. 

Um conhecido estudo testou o grau em que as pessoas pensavam que outras compartilhavam seus conhecimentos. Os pesquisadores usaram dados de um jogo chamado Play The Percentages. Os jogadores poderiam ganhar milhares de dólares em prêmios em dinheiro se fossem capazes de adivinhar a porcentagem de pessoas na audiência do estúdio que poderiam responder certas perguntas triviais corretamente. Eles descobriram que os competidores sempre superestimariam o número de pessoas que poderiam responder às perguntas corretamente quando o próprio competidor sabia a resposta. 

Os pesquisadores também descobriram que o efeito é mais pronunciado quando se trata de coisas que acreditamos verdadeiras. Se você se preocupa com o meio ambiente e considera o aquecimento global um fato, provavelmente vai exagerar a porcentagem de pessoas que compartilham de suas crenças. O efeito também é mais pronunciado se suas crenças fizerem parte de uma minoria estatística. (...) 

O efeito também é ampliado quando tentamos especular sobre as crenças e opiniões das pessoas no futuro . Os psicólogos pensam que isso ocorre porque não temos acesso a informações sobre as opiniões das pessoas no futuro, também presumimos que estamos corretos e que outros futuros terão tempo para “descobrir a verdade” e mudar suas crenças de acordo.

Então, o que os psicólogos acham que são as causas do FCE? Um dos motivos mais citados é a exposição seletiva. 

As pessoas geralmente passam a maior parte do tempo com seus amigos e familiares e provavelmente compartilham crenças e opiniões sobre o mundo com esses grupos. Isso nos dá uma amostra tendenciosa da esfera social de opinião e é provável que façamos suposições sobre a população em geral com base em nossas interações com as pessoas. 

Wandi Bruine de Bruin, professora de políticas públicas, psicologia e ciências comportamentais da University of Southern California, conduziu recentemente um estudo investigando as suposições das pessoas sobre os comportamentos de vacinação na população em geral. Ela descobriu que as pessoas baseavam suas suposições de como a população em geral se comportava em como as pessoas dentro dos próprios círculos sociais dos sujeitos se comportavam. 

Ambientes online amplificam a exposição seletiva e, portanto, o FCE, porque compartilhamos espaços com pessoas que têm pontos de vista semelhantes e nos envolvemos com materiais que confirmam nossas crenças pré-existentes. Martin Coleman, psicólogo e professor de prática na North Dakota State University, é autor de vários artigos que investigaram o FCE. Ele explica:

“Acho que os ambientes online quase certamente ampliam o FCE. Uma das causas do FCE é a 'exposição seletiva' (apenas estar por perto e ouvir indivíduos com pensamentos semelhantes / atos semelhantes). Esse 'efeito de câmara de eco', em que as pessoas apenas ouvem / veem suas próprias opiniões / ações repetidas ou refletidas de volta para elas, é comum na Internet. Fóruns de jogadores, fóruns de usuários de maconha, fóruns de caçadores, para não mencionar todos os fóruns de grupos políticos extremos quase certamente acentuam o FCE e levam a outros fenômenos, como 'polarização do grupo', onde as opiniões dos membros do grupo se tornam mais extremas como um resultado da discussão em grupo. ”

A exposição seletiva é semelhante a algo chamado de heurística de disponibilidade, que também desempenha um papel significativo no FCE. Quando as pessoas são solicitadas a lembrar características sobre outras pessoas, elas são melhores em lembrar semelhanças do que diferenças. Portanto, se somos questionados sobre as características dos outros, é provável que as alinhemos com as nossas. 

Outro elemento de explicação para o FCE é o foco causal de um indivíduo . Se um indivíduo tem maior probabilidade de pensar que suas crenças e ações são determinadas por poderosas forças situacionais externas a ele, então faz sentido pensar que outros indivíduos estão sujeitos a forças semelhantes. Se as pessoas estão sujeitas a forças externas semelhantes, isso deve levar a uma convergência de experiências e crenças, o que deve intensificar o FCE. 

É importante que as pessoas conheçam o FCE? 

Em alguns contextos, o FCE pode ser inofensivo, como quando você, por engano, permite que seus amigos façam um pedido para você em um restaurante. Mas também pode ser perigoso. Como Coleman mencionou, ambientes como a mídia social podem exacerbar esse viés cognitivo já presente, e quando tomamos medidas para nos cercar de pessoas que confirmam o que pensamos que já sabemos, inadvertidamente nos separamos da diversidade de perspectivas que existem dentro de um sociedade saudável. 

04 março 2021

Quando o Charlatão prevalece


Sobre Charlatões, no Stumbling and Mumbling uma constatação: as pessoas preferem ouvir charlatães, conforme diversos experimentos. Quais as razões? 

Uma possibilidade é o viés da confirmação. Você segue o conselho do charlatão quando o que ele diz é próximo ao que você acredita. Uma pesquisa perguntou às pessoas quais artigos sobre pandemia elas queriam ler, a partir dos títulos. Os pessimistas escolhem os artigos pessimistas e as pessoas otimistas escolhem os artigos otimistas. E após a leitura, a crença prévia saiu fortalecida. Isto já tinha sido estudado antes e a conclusão foi a mesma. Existem outras explicações, como o fato de que buscamos especialistas afinados com nossa postura, o efeito rebanho, o viés de seleção, entre outros. 

Uma implicação de tudo isso é que uma emissora de serviço público, como a BBC pretende ser, não consegue ser, imparcial. Se você oferecer às pessoas dois lados de uma história ou duas cabeças falantes, muitos escolherão o charlatão ou a história falsa, em vez da verdadeira. E obteremos uma polarização maior - o que pode resultar em uma boa TV, mas não necessariamente em uma boa política ou uma boa sociedade.

Um aspecto que julgo relevante na discussão: talvez "charlatão" não seja algo binário, do tipo "ou é charlatão ou não é charlatão", mas uma escala, onde parte do que é dito pode ser verdadeiro, mas uma parte não.

24 fevereiro 2021

Viés da Confirmação, Imprensa e Pandemia


Um estudo procurou verificar como as pessoas comportam com a seleção e o processamento de informação durante a pandemia do Covid-19. Olhando como as pessoas selecionavam as notícias consumidas, os pesquisadores apresentavam notícia ou otimista ou pessimista. Em um grupo, também mostravam a fonte da informação (New York Times ou Fox News). A conclusão foi que o viés da confirmação foi relevante no processo. Por exemplo, um pessoa pessimista, por exemplo, dedicava mais atenção para a notícia pessimista. 

Eis o abstract:

How people form beliefs is crucial for understanding decision-making under uncertainty. This is particularly true in a situation such as a pandemic, where beliefs will affect behaviors that impact public health as well as the aggregate economy. We conduct two survey experiments to shed light on potential biases in belief formation, focusing in particular on the tone of information people choose to consume and how they incorporate this information into their beliefs. In the first experiment, people express their preferences over pandemic-related articles with optimistic and pessimistic headlines, and are then randomly shown one of the articles. We find that respondents with more pessimistic prior beliefs about the pandemic are substantially more likely to prefer pessimistic articles, which we interpret as evidence of confirmation bias. In line with this, respondents assigned to the less preferred article rate it as less reliable and informative (relative to those who prefer it); they also discount information from the article when it is less preferred. We further find that these motivated beliefs end up impacting incentivized behavior. In a second experiment, we study how partisan views interact with information selection and processing. We find strong evidence of source dependence: revealing the news source further distorts information acquisition and processing, eliminating the role of prior beliefs in article choice.

22 outubro 2019

Como surgiu o radicalismo

Como surgiu o radicalismo 

Algoritmos podem deixar pessoas encurraladas em um canto do espectro ideológico

Fernando Reinach*, O Estado de S.Paulo
12 de outubro de 2019

Stuart Russell é um dos principais cientistas da área de Inteligência Artificial (IA). Seu livro sobre o tema é usado na maior parte das universidades. Enquanto todos se preocupam com o risco de os sistemas de IA substituírem seres humanos, ele aponta um muito maior: perdermos o controle sobre esses sistemas. E discute um exemplo real, dos algoritmos de IA que estão causando polarização política.



Enquanto programas de computação clássicos são uma sequência de instruções que chegam a um resultado, sempre com o mesmo procedimento, sistemas modernos de IA são poderosos porque não seguem procedimentos rígidos. Você determina o objetivo e o computador descobre a melhor maneira de atingi-lo.



Imagine um robô programado de forma clássica. Você pede a ele que te traga uma cerveja. Ele estará programado para abrir a geladeira, pegar a cerveja e te trazer. Se não encontrar, vai provavelmente te avisar que não tem cerveja na geladeira. Um hipotético robô contendo sistema de IA sofisticado não está programado para ir à geladeira, mas para resolver o problema - no caso, te conseguir uma cerveja - de forma independente. Ele vai à geladeira e não encontra a cerveja. Então, descobre um local onde pode encontrá-la, o bar da esquina. De maneira independente, se dirige ao bar. Ele tomou a decisão usando o que descobriu sobre o funcionamento do mercado de cerveja.

Mas imagine que acontece algo inesperado: o cartão de crédito que levou é recusado. Há duas possibilidades. O sistema de IA é suficientemente sofisticado para entender que esse é um obstáculo intransponível e volta sem a cerveja ou, por não ter acesso a leis e códigos morais da sociedade, decide que a melhor solução é matar o dono do bar e levar a cerveja. Como nenhuma dessas ações estava previamente programada, o fabricante só vai descobrir a besteira quando a polícia bater à porta.

O exemplo parece estapafúrdio, mas Russell, em um debate em Londres no lançamento do seu livro, explicou o que aconteceu com sistemas de IA do Google (YouTube) e Facebook. É uma história real. Algoritmos de IA dessas empresas foram construídos para aumentar o número de vezes que o usuário clica em outro link após ler o anterior - as empresas ganham mais quanto maior o número de visualizações.

Os programadores imaginavam que o sistema de IA descobriria o que a pessoa gostava de ler e apresentaria mais exemplos desse assunto. Mas o que aconteceu na prática não foi o previsto. O sistema de IA descobriu que a melhor maneira de aumentar a probabilidade de você clicar no próximo filme (ou post) não é sugerir o que aparentemente você gosta, mas aos poucos modificar sua preferência de modo a focar sua preferência em um ou poucos assuntos. O sistema de IA chegou sozinho a essa descoberta e, à medida que ela funcionou, aumentando o número de cliques, o algoritmo passou a adotar e refinar essa estratégia.

No caso de assuntos de política, se uma pessoa é de centro, pode preferir clicar em algo mais à esquerda ou à direita de sua posição, o que diminuía a probabilidade de a pessoa clicar novamente. Mas, se o algoritmo aos poucos levá-la aos extremos (esquerda ou direita), ao longo do tempo ela acaba encurralada em um dos cantos do espectro ideológico e então a probabilidade de clicar em algo parecido aumenta.

Russell contou que esse efeito foi descoberto por seus alunos (são eles que trabalham nessas empresas), mas a armadilha já estava montada. Voltar atrás diminuiria o número de cliques. Marqueteiros políticos também descobriram isso e passaram a produzir conteúdos que auxiliavam o algoritmo a segregar as pessoas em extremos. Exemplos citados na palestra são Estados Unidos, Inglaterra e Brasil.

É uma história impressionante. Russell sugere que isso é o início da perda de controle sobre sistemas de IA. E está ocorrendo com sistemas relativamente simples. A preocupação é o que pode ocorrer quando se tornarem mais poderosos, superando a inteligência humana. Mas isso é só o começo do livro. A maior parte descreve formas de garantir que mesmo usando sistemas mais inteligentes não venhamos a perder o controle sobre as máquinas. Vale a pena ler.

MAIS INFORMAÇÕES: HUMAN COMPATIBLE. AI AND THE PROBLEM OF CONTROL. STUART RUSSELL ED. ALLEN LANE PRESS (2019)