Translate

Mostrando postagens classificadas por relevância para a consulta correlação. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta correlação. Ordenar por data Mostrar todas as postagens

24 abril 2019

Convergência e Divergência no Emprego


  • Até o término da recessão econômica, o desempenho do emprego na economia era parecido com o do setor contábil 
  • Recentemente, os números começaram a divergir

A partir dos dados do emprego formal da economia e dos dados do setor contábil - considerando aqui contadores e auditores, técnicos e escriturários - fiz a correlação entre estas duas variáveis para os últimos 24 meses. Assim, em janeiro de 2016 eu calculei a correlação entre a economia e o setor contábil, considerando de fevereiro de 2014 a janeiro de 2016. O resultado foi de 0,97, indicando que existia uma relação muito forte entre o que estava ocorrendo na economia e o resultado do setor contábil. Fiz isto para os meses seguintes, até março de 2019 - que corresponde ao período entre abril de 2017 a março de 2019. O resultado, sob a forma gráfica, está a seguir:

É possível notar que a relação entre o desempenho da economia e do setor contábil foi bastante próxima até início de 2018. Se em janeiro de 2018 a correlação era de 0,91, no mês seguinte caiu para 0,89. Em março de 2018 foi para 0,87, depois para 0,83 e assim por diante. Em novembro a relação ficou em -0,51. O sinal negativo é importante que mostra que nos últimos 24 meses, terminados em novembro, enquanto o desempenho era bom na economia, os números eram ruins na contabilidade. E poderia ser vice-versa, mas este não é o caso.

Ou seja, o desempenho do setor contábil descolou da economia nos últimos meses. Isto já tinha sido constatado em algumas postagens de fizemos ao analisar os números do emprego formal aqui no blog.

24 janeiro 2010

Em defesa do PIB

Em In Defense of GDP, Justin Wolfers defende a medida tradicional de crescimento econômico, o Produto Interno Bruto. Recentemente o francês Sarkozy defendeu a criação de uma medida econômica mais adequada.

Entretanto, Wolfers lembra que as críticas ao PIB são antigas. Mas que ao longo do tempo esta medida tem-se mostrado consistente. Já foi comprovado existir uma elevada correlação entre o PIB per capita e a satisfação com a vida (correlação igual a 0,82, muito elevada para dados econômicos) Também a correlação entre o PIB per capita e o IDH é muito alta: 0,95. Existem alguns países que são outliers (fora do padrão), como é o caso de Cuba (IDH elevado para seu PIB per capita). Mas são exceções.

27 fevereiro 2019

Teoria na Era do Big Data


  • Na era do Big Data, há um questionamento se a teoria ainda é importante
  • A grande presença de dados pode alterar a escolha sobre como fazer uma pesquisa
  • O perigo é a possibilidade de correlação espúria

Uma vez que a pesquisa científica está usando cada vez mais dados, em grandes quantidades, há um questionamento se a teoria ainda é importante. Jackson, em The Role of Theory in an Age of Design and Big Data, discussa a questão sob a ótica dos economistas. Mas sua visão pode ser expandida para a contabilidade. Ele relembra que recentemente Duflo afirma que economistas seriam como plumbers encanadores, onde o trabalho envolve questões para melhorar a vida das pessoas. E acrescenta que as pesquisas teóricas estão em claro declínio: eram 57% dos artigos publicados em 1983 e representava 19% em 2011. Mas na visão dele, a teoria ainda é necessária na era do design e do big data.

Uma típica pesquisa na era do Big Data coleta uma grande quantidade de dados e procura extrair dali algum tipo de relação estatística. Explora as informações, sem um conhecimento prévio do que pode encontrar. Com o resultado encontrado, o pesquisador tenta buscar teorias que poderia sustentar os achados. Um trabalho deste tipo começaria com a metodologia e análise dos dados para depois fazer a revisão da literatura ou revisão da teoria (são coisas distintas). Alguns pesquisadores acham que esta maneira de fazer pesquisa está errada. É uma opinião baseada no fato de que, em alguns casos, os achados não possuem vínculo com uma base teórica. Isto ocorre quando temos a situação de correlação espúria (aqui, aqui, aqui e aqui), onde o tamanho do vestido apresenta correlação com o comportamento do mercado acionário.

Entretanto, é inegável que algumas descobertas da ciência são feitas desta forma. O que parece estranho quando temos o resultado, pode ser um achado importante. O famoso paper de Fama e French usou uma pesquisa deste tipo para chegar ao modelo de três fatores, segundo afirma Justin Fox. Criticando Fama, é bem verdade.

Para o pesquisador, é importante saber que sua escolha por este tipo de pesquisa também leva a algumas escolhas de técnicas. Uma pesquisa que trabalha os dados, “sem uma teoria”, deveria usar o método Stepwise na regressa múltipla; já uma pesquisa com base teórica precedendo a análise dos dados poderia optar pelo método Enter (vide Andy Field no seu livro de estatística).

Imagem, a partir de uma imagem retirada daqui

03 novembro 2011

Exame de suficiência


O resultado da primeira edição do Exame de Suficiência mostrou um índice de reprovação médio de 69,17% (Jornal do CFC, p. 4). Apesar da prova ter sido considerada “fácil”, o número de reprovados assusta.

Entretanto é possível observar algumas relações interessantes. Em primeiro lugar, os estados com maior densidade demográfica tiveram um desempenho melhor (a correlação entre reprovação e densidade demográfica foi de menos 0,672). Steven Johnson, em “De onde vêm as boas ideias”, afirma que a existência de grandes metrópoles favorece o desenvolvimento humano. Mas considero muito forçado uma análise deste tipo.

De igual modo, os estados mais ricos, aqui medido através do PIB per capita, tiveram menos reprovações (correlação de -0,52). Ou estados mais desenvolvidos, medido pelo IDH, apresentaram melhor desempenho (correlação de -0,396).

Mas um aspecto é interessante dos números apresentados pelo CFC. As unidades da federação que possuíam um curso de pós-graduação reconhecido tiveram uma média de reprovação 65%, enquanto os estados sem um curso de mestrado ou doutorado a reprovação foi de 83%. Aqui não estamos afirmando que ter um curso de pós-graduação causa melhor desempenho no exame de suficiência (ou o contrário). De qualquer forma, esta pode ser uma questão a ser investigada com maior profundidade no futuro. 

27 maio 2008

Dinheiro e Felicidade


Dinheiro traz a felicidade? - 20/05/2008
Marcelo Côrtes Néri – Valor Econômico
O senso comum nos informa que a felicidade pode ser considerada como o objetivo último na vida de cada pessoa. O estudo da satisfação com a vida tem interesse intrínseco, bem como outras motivações, como a avaliação de políticas públicas alternativas e a solução de quebra-cabeças empíricos da economia. Em relação a este último aspecto, provavelmente o paradoxo mais intrigante a ser explicado é a correlação extremamente fraca que diversos estudos apresentam entre renda, a variável mais venerada em economia, e felicidade. Inúmeros países que experimentaram um aumento drástico na renda real desde a Segunda Guerra não observaram um aumento no bem-estar auto-avaliado pela população, pelo contrário, a mesma diminuiu. Em um dado ponto no tempo, a renda mais alta está positivamente associada à felicidade das pessoas, mas ao longo do ciclo de vida e ao longo do tempo esta correlação é fraca, como no chamado Paradoxo de Easterlin. As pessoas adaptam suas aspirações aos maiores ingressos e se tornam mais exigentes à medida que a renda sobe. Como veremos mais adiante, esta visão foi recentemente desafiada por resultados empíricos apresentados por Angus Deaton (2007). É muito cedo para escolher o lado da discussão, mas o lançamento dos novos dados do Gallup World Poll que cobrem mais de 132 países ampliou o horizonte geográfico da discussão, e o trabalho pioneiro de Deaton baseados neles embaralhou novamente as cartas de felicidade com as notas de dinheiro. Sem ainda fazer apostas em dinheiro como causa principal da felicidade, discutimos a partir dos microdados deste mesmo conjunto de informações, cujo acesso foi propiciado pelo projeto sobre Qualidade de Vida do Banco Interamericano (BID), as relações entre renda e felicidade.
A fraca e volúvel relação entre renda e felicidade nos estudos empíricos motivou pesquisadores a irem um passo adiante da posição "objetivista" da teoria econômica, baseada somente nas escolhas feitas pelos indivíduos e que podem ser observadas. Na abordagem tradicional, a utilidade individual depende apenas de bens tangíveis, serviços e lazer, e é inferida quase que exclusivamente do comportamento (ou preferência revelada). A abordagem axiomática da preferência revelada explica que as escolhas feitas fornecem toda a informação necessária a partir da utilidade dos indivíduos. De acordo com Sen (1986), "a popularidade desta visão pode ser atribuída à crença peculiar de que escolha (...) é o único aspecto humano que pode ser observado". A partir do trabalho de Easterlin (1974), cuja relevância aumenta a partir da última parte da década de 90 - quando um conjunto de economistas começou a realizar análises empíricas de larga escala sobre os determinantes da felicidade em diferentes países e períodos -, o interesse econômico na mensuração do bem-estar individual subjetivo cresceu consideravelmente.
Uma visão subjetiva de utilidade reconhece que cada pessoa tem suas próprias idéias sobre felicidade e sobre o que é uma vida boa. Nesta perspectiva, o comportamento observado seria um indicador incompleto para o bem-estar individual. A felicidade dos indivíduos poderia ser captada perguntando diretamente às pessoas o quão satisfeitas estão com suas vidas. As variáveis de interesse estão baseadas no julgamento das pessoas por elas mesmas, de acordo com a premissa de que elas são os melhores juízes sobre a qualidade geral de suas vidas e, portanto, nenhuma estratégia poderia ser mais direta do que perguntar a elas sobre seu nível de bem-estar. A principal idéia é que o conceito de felicidade subjetiva nos possibilitaria captar diretamente o bem-estar humano em vez de mensurar renda ou outras coisas que não são exatamente o que, ao fim e ao cabo, as pessoas querem, mas são os meios através dos quais se pode conseguir - ou não - usufruir da felicidade.
--------------------------------------------------------------------------------
A elasticidade-renda de longo prazo da felicidade geral das nações é constante: para cada 10% de incremento de renda, a felicidade sobe 1,5%
--------------------------------------------------------------------------------
Como as pessoas medem seu nível de bem-estar subjetivo em relação às circunstâncias pessoais e às outras pessoas, incluindo experiências passadas e expectativas futuras, alguns sugerem que medidas de bem-estar subjetivo sirvam como medidas de utilidade. Além disso, de acordo com Diener (1984) - baseado em estudos como Fernandez-Dols e Ruiz-Belda (1995), que apontam a alta correlação entre felicidade reportada e sorriso, e Honkanen Koivumaa et alli (2001), que encontram a mesma relação entre infelicidade, cérebro e atividade cardíaca - "estas mensurações subjetivas parecem conter quantidades substanciais de variação válida".
Angus Deaton (2007) desafia as interpretações mais ou menos estabelecidas da literatura empírica prévia, em particular que "dinheiro não traz felicidade" (ou seja, satisfação com a vida no longo prazo), através dos dados do Gallup World Poll, algo mais rico em número de países em relação às pesquisas anteriores. O artigo de Deaton (2007) é a referência-chave dissonante da literatura empírica.
Iniciamos pelos mesmos dados do Gallup World Poll de 2006 que está disponível para 132 países, explorando exercícios simples bivariados de satisfação com a vida em níveis e diferenças, através de diferentes horizontes, em comparação com o PIB per capita ajustado por paridade de poder de compra, a fim de compararmos laranjas com laranjas entre países. O mergulho inicial do impacto da renda mundial sobre a satisfação com a vida nos informa que Togo ocupa a lanterninha, com 3,2, numa escala de 0 a 10, e a Dinamarca o ápice, com 8,02. O Brasil está numa posição mais chegada à nação européia do que à africana, atingindo 6,64, situando-se acima da norma internacional de felicidade dado o seu PIB per capita.
Deaton trabalha basicamente com regressões de médias entre países (cross-country regressions) e sugere que uma especificação log-linear se ajusta melhor aos dados do que uma especificação em nível implicando numa relação côncava. A dupla relação em logaritmos aqui proposta parece adequar-se melhor aos dados - é inclusive mais condizente com o modelo teórico usado pelo próprio Deaton. Neste último caso, o coeficiente estimado nos informa diretamente a elasticidade-renda de longo prazo da felicidade, que seria constante: para cada 10% de incremento de renda, a felicidade subiria algo como 1,5% no longo prazo.
Enviado por Ricardo Viana (grato)


Aqui,aqui , aqui, aqui e aqui outras postagens sobre o assunto.

09 novembro 2014

FAQs: Sistema de Pontuação



Qual a finalidade do sistema de pontuação?
O sistema de pontuação é utilizado pelas empresas para analisar as solicitações de crédito dos clientes. Para isto, o sistema considera variáveis que possuam correlação passada entre o não pagamento e características do solicitante, como idade, renda, emprego etc.

Como é construído um sistema de pontuação?
Os sistemas modernos são construídos a partir da experiência passada de concessão de crédito e dificuldade de recebimento. A partir de modelos estatísticos determinam-se as variáveis que aparentemente influenciam as condições futuras de pagamento.

Qual a base para construir um sistema de pontuação de crédito?
O termo é correlação. Procura-se descobrir relações estatísticas entre o comportamento do cliente e suas características. É importante notar que na nossa vida diária usamos a correlação inúmeras vezes: se vemos um amigo escorregar e cair, nós raciocinamos que o chão está úmido; se comparamos duas mercadorias com preços diferentes, imaginamos que a mais cara é melhor; se tiramos nota ruim na prova, supomos que não estudamos o suficiente; se você vê um casal abraçado imagina que sejam namorados; se o blog possui poucas postagens isto deve ocorrer pelo fato do blogueiro está ocupado; e assim por diante.

O sistema de pontuação é preconceituoso?
Se o sistema for construído com base na experiência histórica o modelo final é decorrente do que ocorreu no passado. Se no passado pessoas desempregadas tiveram dificuldades de efetuar o pagamento, esta variável deverá estar no modelo e ser usada para a decisão de crédito.

O sistema de pontuação é falível?
Como qualquer modelo, o sistema tem um nível de erro. Quanto mais preciso for o sistema, menor o erro.

Quais são os erros cometidos pelos sistemas de pontuação de crédito?
Existem dois tipos erros. O sistema considera que um cliente será um bom pagador e este cliente revela-se, no futuro, um cliente duvidoso. O segundo tipo de erro é o sistema classificar um cliente como duvidoso e ele ser honesto. O sistemas existentes podem ponderar este erro, enfatizando mais um do que outro.

Para a empresa, qual o erro mais relevante?
É classificar um cliente como bom, sendo duvidoso. Neste tipo de erro a perda corresponde ao crédito concedido. O segundo tipo de erro traz como prejuízo a perda do cliente ou problemas com a imagem da empresa, mas o valor deve ser menor que o primeiro tipo de erro.

O que ocorre quando uma empresa não usa o sistema de pontuação?
Se o concorrente utiliza um sistema, os bons clientes serão aceitos e os clientes ruins terão o crédito recusado. Os clientes ruins tenderão a comprar nas empresas que não possuem um sistema de crédito, que terão um aumento substancial na sua provisão de devedores duvidosos.

O sistema de pontuação pode prejudicar um cliente honesto?
Sim, quando ele comete o erro de classificação.

O que ocorre se as empresas forem proibidas de usar sistemas de pontuação de crédito?
Provavelmente as empresas adotariam o sistema de concessão de crédito: baseado na boa aparência, que é muito mais preconceituoso. Como a boa aparência possui um erro muito maior, o volume de calote aumentaria, aumentando o risco da concessão de crédito. Para cobrir esta diferença, as empresas devem compensar com o aumento nos preços, com prejuízos para toda sociedade.

É possível proibir um sistema de pontuação de crédito?
A justiça poderá proibir a coleta de dados para construção de sistemas empresariais de pontuação de crédito, mas isto irá ocasionar sua substituição por sistemas precários. Atualmente os bancos trabalham com estes “pontos” para conceder vantagens aos bons clientes e não premiar os clientes ruins. Proibir este uso significa a volta ao passado onde um cliente que deseja um empréstimo tinha que tomar cafezinho diariamente com o seu gerente. Os custos desta troca são enormes. Mas a justiça não poderá proibir o sistema de pontos ou algo do gênero na concessão de crédito.

A resistência ao sistema de pontuação ocorre somente no Brasil?
Infelizmente existem em todo o mundo.

09 março 2011

O lucro é do mal?

O lucro é do mal?- Postado por Pedro Correia

Existe diferença entre a crença dos leigos e de acadêmicos sobre os efeitos sociais do lucro. Os leigos, muitas vezes parecem relacionar lucro com dano social. Enquanto, que os acadêmicos afirmam que o lucro adiciona valor à sociedade.

No paper "Is Profit Evil? Associations of Profit With Social Harm". Os autores buscaram verificar se existe alguma correlação entre o lucro e o valor social percebido pelos indivíduos em relação as determinadas empresas e indústrias.

No Teste 1a, os sujeitos classificaram a rentabilidade e o valor social de 40 empresas das 500 maiores de acordo com a revista Fortune.

Os indivíduos tinham que indicar, primeiramente, a sua familiaridade com a empresa em uma escala de 3 pontos (1 = Nunca ouvi falar, 3 = Familiar). Em seguida, eles classificaram a empresa sobre o lucro percebido ("Quanto de lucro você acha que este negócio tem feito em média (das empresas em geral) no último ano?", 1 = zero ou menos, 6 = Muito mais do que a média) . Os indivíduos, em seguida, indicaram o valor percebido da empresa para a sociedade ("O que você acha sobre o valor deste negócio para a sociedade, em geral?", 1 = Seria melhor se ele não existisse, 5 = É importante e útil).

Eles encontraram uma forte relação negativa (r =-. 62) entre o lucro e o valor social. Cofira o gráfico de dispersão . Mais surpreendente, eles descobriram que a correlação entre o real lucro das entidades e o valor social percebidos foram corretos(r =-. 57). Na média as suposições dos indivíduos sobre a rentabilidade foram surpreendentemente precisas, apesar de que os palpites sobre o valor social ficaram longe da realidade.

No Teste 1b, os autores substituíram as empresas por indústrias, e mais uma vez verificaram a correlação entre rentabilidade e valor social percebido r =-. 67! . Confira o gráfico de dispersão.

No teste 2, através de um cenário hipotético, chegaram a conclusão de que a mera mudança do objetivo da mesma organização: de sem fins lucrativos para com fins lucrativos gerou uma mudança negativa no valor percebido.

Após diversos testes os autores concluíram que :

As pessoas aparentemente tem pouca fé no poder dos mercados para criar valor para a sociedade. Entre empresas reais (Estudo 1a), indústrias inteiras (Estudo 1b) e organizações hipotéticas (Estudo 2), nossos participantes associaram maiores níveis de lucro com o maior dano e menor valor social. Além disso, eles viram que os grandes lucros eram imerecidos, pois são às custa dos outros. Apesar de as próprias empresas não serem vistas como geralmente más ou desprovidas de valor, o lucro é visto como mal. Aumentar a lucratividade da empresa (ou lucro) muito prejudicaram percepção de valor social ... Estes resultados são bastantes opostos à visão dos mercados defendidas por economistas e estudiosos que a oferta,demanda e concorrência irão recompensar as entidades que buscam o lucro e que forneçam o que a sociedade quer. Assim,mesmo em uma das sociedades mais orientadas para o mercado na história humana, as pessoas não acreditam na "mão invisível" do mercado.

Fonte: Evil of profit

04 fevereiro 2011

Efeito Janeiro

O efeito janeiro é uma anomalia relacionada com o calendário no mercado financeiro. Em 1980 Donald Kleim observou que desde 1925, no mercado acionário dos Estados Unidos, as cotações das ações de pequenas empresas apresentavam uma forte valorização.

Este comportamento do mercado acionário decorre do fato que não existe a eficiência absoluta. Uma explicação para o efeito janeiro é que os investidores vendem suas ações no final do ano, para recomprá-las em janeiro. Isto faz com que o mercado apresente um aumento maior no mês de janeiro.

O mercado brasileiro também apresenta o efeito janeiro. Usando informações de 1995 (inclusive) até janeiro de 2011, tivemos alguns resultados interessantes. Inicialmente calculamos o retorno anual e o retorno do mês de janeiro. Os resultados encontrados foram os seguintes:


Com base nesses valores observa-se o seguinte
a) Das dezesseis observações (anos) da série histórica, o sinal foi invertido em cinco anos: 2001, 2003 a 2005 e 2010.
b) A média aritmética do retorno anual é de 28,06%, que abrange doze meses de observação; o retorno médio de janeiro é de 2,62%.
c) A correlação de Pearson entre as duas colunas foi de 0,547, com significância de 2,8%. Isto significa que podemos dizer que existe correlação entre as duas colunas, com 97% de certeza. (*)
d) Foi calculada também uma regressão entre a primeira coluna e a segunda. O resultado mostrou que o retorno de janeiro, multiplicado por 3,2, irá corresponder aproximadamente ao retorno anual. (**)
e) Em outras palavras, se o mercado acionário cresce em janeiro, provavelmente o mercado será positivo no ano. Caso contrário, quando o retorno de janeiro é negativo, o retorno do mercado acionário no ano deverá ser negativo. Isto ocorreu em 7 de cada dez anos.
f) Uma notícia ruim: o mercado caiu em janeiro (3,2%, aproximadamente). Mantendo o comportamento passado, a projeção é uma queda do mercado de mais de 12%.
Se o efeito janeiro persistir.

(*) A correlação de Spearman foi de 0,594, sign = 0,015.
(*) A regressão sem o termo constante apresentou o seguinte resultado: Retorno Anual = 3,193 Retorno Janeiro, com R2 = 0,342; DW = 1,998; e Fc = 7,79 (sign. = 0,014)

27 fevereiro 2024

Explorando a Complexa Relação entre Renda e Crime

É bem conhecido que pessoas com renda mais baixa cometem mais crimes. Chame isso de resultado transversal. Mas por quê? Um conjunto de explicações sugere que é precisamente a falta de recursos financeiros que causa crime. De forma simplificada, talvez pessoas mais pobres cometam crimes para obter dinheiro. Ou, pessoas mais pobres enfrentam maiores pressões - raiva, frustração, ressentimento - o que as leva a agir ou pessoas mais pobres vivem em comunidades menos integradas e bem policiadas ou pessoas mais pobres têm acesso a piores cuidados médicos ou educação e assim por diante, o que leva a mais crime. Essas teorias implicam todas que dar dinheiro às pessoas reduzirá sua taxa de criminalidade.

Um conjunto diferente de teorias sugere que a correlação negativa entre renda e crime (mais renda, menos crime) não é causal, mas é causada por uma terceira variável correlacionada tanto com renda quanto com crime. Por exemplo, um QI mais alto ou maior conscienciosidade poderia aumentar a renda enquanto reduz o crime. Essas teorias implicam que dar dinheiro às pessoas não reduzirá sua taxa de criminalidade.

As duas teorias podem ser distinguidas por um experimento que aloca dinheiro aleatoriamente. Em um artigo notável, Cesarini, Lindqvist, Ostling e Schroder relatam os resultados de um experimento desses na Suécia.

Cesarini et al. observam suecos que ganham na loteria e comparam suas taxas subsequentes de criminalidade com não-ganhadores semelhantes. O resultado básico é que, se alguma coisa, há um leve aumento na criminalidade ao ganhar na loteria, mas, mais importante ainda, os autores podem rejeitar estatisticamente que a maior parte do resultado transversal seja causal. Em outras palavras, como aumentar aleatoriamente a renda de uma pessoa não reduz sua taxa de criminalidade, o primeiro conjunto de teorias é falsificado.

Algumas observações. Primeiro, você pode objetar que os jogadores de loteria não são uma amostra aleatória. No entanto, uma parte substancial dos dados de loteria de Cesarini et al. vem de contas de poupança vinculadas a prêmios, contas de poupança que pagam grandes prêmios em troca de pagamentos de juros mais baixos. As contas de poupança vinculadas a prêmios são comuns na Suécia e cerca de 50% dos suecos têm uma conta PLS. Assim, os jogadores de loteria na Suécia parecem bastante representativos da população. Em segundo lugar, Cesarini et al. têm dados sobre cerca de 280 mil ganhadores da loteria e têm o universo de condenações criminais; isto é, qualquer condenação de um indivíduo com 15 anos ou mais de idade de 1975 a 2017. Uau! Em terceiro lugar, algumas pessoas podem objetar que a correlação que observamos é entre condenações e renda e talvez as condenações não reflitam o crime real. Não acho que isso seja plausível por várias razões, mas os autores também não encontram evidências estatisticamente significativas de que a riqueza reduza a probabilidade de alguém ser suspeito em uma investigação criminal (Deus abençoe os suecos pela coleta de dados extremos). Em quarto lugar, a análise foi pré-registrada e correções são feitas para testes de hipóteses múltiplas. Preocupo-me um pouco com o fato de que os ganhos na loteria, na sua maioria, são da ordem de 20 mil ou menos e gostaria que os autores tivessem falado mais sobre o seu tamanho em relação às diferenças transversais. No entanto, no geral, este parece ser um artigo muito credível.

Em seu resultado mais importante, mostrado abaixo, Cesarini et al. convertem ganhos na loteria em choques de renda permanente equivalentes (usando uma taxa de juros de 2% ao longo de 20 anos) para estimar causalmente o efeito de choques de renda permanente sobre o crime (quadrados sólidos abaixo) e eles comparam com os resultados transversais para jogadores de loteria em sua amostra (círculo) ou pessoas similares na Suécia (triângulo). Os resultados transversais são todos negativos e diferentes de zero. Os resultados causais da loteria são na maioria positivos, mas nenhum rejeita zero. Em outras palavras, aumentar aleatoriamente a renda das pessoas não reduz sua taxa de criminalidade. Assim, a correlação negativa entre renda e crime deve-se a uma terceira variável. Como os autores resumem de forma bastante modesta:

Embora nossos resultados não devam ser extrapolados casualmente para outros países ou segmentos da população, a Suécia não se destaca por taxas de criminalidade particularmente baixas em relação a países comparáveis, e a taxa de criminalidade em nossa amostra de jogadores de loteria é apenas ligeiramente menor do que na população sueca em geral. Além disso, há uma forte relação negativa transversal entre crime e renda, tanto em nossa amostra de jogadores de loteria suecos quanto em nossa amostra representativa. Nossos resultados, portanto, desafiam a visão de que a relação entre crime e status econômico reflete um efeito causal de recursos financeiros sobre a delinquência adulta.


Fonte: Marginal Revolution (negrito meu). 

17 fevereiro 2011

Por que este blog decidiu postar sobre a capa da Sports Illustrated?

Este é um blog de contabilidade. Então, por que postar sobre a capa da ultima edição da revista Sports Illustrated?

Uma razão básica para não fazê-lo: a correlação entre a capa e o mercado é uma correlação espúria. Ou seja, decorre de um acaso, não de um fato científico. Isto foi alertado pelo comentário do professor Jomar. E ele tem razão.

Mas temos três fortes motivos para postar sobre este fato. Em primeiro lugar, a possibilidade de fazermos uma pesquisa e encontrarmos uma correlação espúria é muito grande. Além disto, isto alerta-nos para a necessidade de ter uma teoria para explicar nossos testes estatísticos.

Em segundo lugar, o mundo de negócios realmente discute a capa da revista. Seja por diversão ou por achar que é um assunto que merece ser discutido.

Finalmente, tratar de contabilidade não significa que devamos ser restritos com o que ocorre no mundo. E, convenhamos, foi uma postagem muito bonita.

19 dezembro 2008

Conceito de Correlação Serial


Segundo Andrew Lo (via Be Wary of Serial Correlation) uma correlação serial ocorre quando o retorno de um investimento é um espelho do resultado do mês anterior. Um fundo que tem o mesmo retorno a cada mês é perfeitamente correlacionado. Isto ocorria com o fundo de Madoff.

O interessante, conforme lembra Ritholtz, é que Lo mostra no seu livro Hedge Funds que elevado grau de correlação serial é sinal de que o retorno não está sendo evidenciado de forma realística. Em outras palavras, “olhe melhor para ver se é verdade”.

Mesmo com um mercado sendo tão volátil.

Foto: Flickr

22 junho 2023

O perigo das correlações apressadas nas pesquisas realizadas na pandemia

A publicação rápida e não criteriosa de correlações durante a pandemia de COVID-19 pode ter gerado algumas pesquisas com qualidade duvidosa. Um estudo relacionou o aumento de eventos cardiovasculares graves em Israel durante a vacinação contra a COVID-19, em pessoas com menos de 40 anos. Embora a correlação pareça estatisticamente significativa, tudo leva a crer que é clinicamente irrelevante.

Muitas publicações durante a pandemia foram apressadas, possivelmente sem uma revisão rigorosa por pares, levando ao desperdício de esforços científicos. Na estatística temos vários exemplos de correlações sem sentido, como a relação entre o consumo de chocolate e o número de ganhadores do Prêmio Nobel, para ilustrar o problema de interpretação incorreta dos dados de correlação. Este é o fenômeno de correlação espúria, que já destacamos várias vezes no blog. 


O estudo de Israel, por exemplo, possui várias falhas na análise estatística e as conclusões não são sustentadas pela metodologia adequada. Publicar correlações é válido, desde que não sejam interpretadas erroneamente ou consideradas como evidências científicas ou relevantes para políticas.

As correlações devem ser publicadas, mas é importante interpretá-las corretamente e evitar conclusões equivocadas.

Baseado aqui. Foto Oliver Roos

08 novembro 2011

Correlação

Ao comentar sobre o novo livro de Daniel Kahneman este texto fez a seguinte observação:

As Mr. Kahneman notes, the year-to-year correlation between the performance of the vast majority of funds is barely above zero, which suggests that most successful managers are banking on luck, not talent.


Isto não faz sentido, já que tudo leva a crer que Kahneman estava afirmando que o desempenho dos fundos, através da sua rentabilidade, não deveria ser muito diferente. Ou seja, não existiria um fundo ganhador. O termo correlação indicaria, neste caso, uma correlação próxima de um.

12 novembro 2009

Rock e Petróleo

O gráfico compara a produção de petróleo dos EUA e o ano das maiores músicas de todos os tempos da revista Rolling Stones.

Correlação estatística? Sim. Mas não existe teoria para explicar tal correlação. Denominamos de correlação espúria

05 abril 2010

Ações e seu preço

O tema de pesquisa é a mensuração do preço das ações no mercado financeiro nacional. Como questões se investigam qual a influência do terceiro e quarto momento na precificação de ativos, a influência da coassimetria na correlação da proxy IBOV com as ações, a influência da cocurtose na correlação da proxy IBOV com as ações, a influência conjunta da coassimetria e cocurtose na correlação entre a proxy IBOV e as ações, o seu desempenho comparado com o modelo CAPM e o aumento ou não da precisão. No momento da compra ou venda de uma ação se faz necessário verificar se o preço é justo para o mercado, se este está sob ou sub valorizado. O modelo de apreçamento de ativos, CAPM (Capital Asset Price Model) proposto por Sharpe (1964) é o modelo mais comumente utilizado para determinar o valor das ações. Porém, evidências apontam ineficiência nesta mensuração. Estudos em vários mercados estão sendo desenvolvidos para identificar a influência da

assimetria e da curtose neste modelo. No mercado brasileiro, no entanto, não foi identificado nenhum estudo buscando evidenciar esta tendência. Como método de pesquisa desenvolveu-se pesquisas bibliográficas e estudo das séries temporais das ações que compunham o índice Ibovespa em 30 de Maio de 2008, tratadas com o uso de regressões múltiplas tendo como variáveis a volatilidade sistemática, a assimetria sistemática e a curtose sistemática. Como resultados o trabalho permite afirmar conclusivamente que a coassimetria e a cocurtose não melhoram o desempenho do modelo de precificação de ativos.


 

MENSURAÇÃO DO PREÇO DAS AÇÕES NO MERCADO FINANCEIRO NACIONAL - Alexandre Silva de Oliveira e Luis Felipe dias Lopes - UNIVERSIDADE FEDERAL DE SANTA MARIA

07 dezembro 2007

26 novembro 2011

Basileia II

O acordo de Basileia II no Brasil vai permitir que os bancos utilizem modelos internos, na abordagem IRB avançada, que sirvam de base para o cálculo dos requisitos mínimos de capital em função do nível de exposição ao risco de crédito. Dentre os principais componentes estimados estão a probabilidade de descumprimento (PD – probability of default), a perda dado o descumprimento (LGD – loss given default) e a exposição no descumprimento (EAD – exposure at default). Este trabalho tem como objetivo investigar mecanismos de estimação de LGD utilizando modelos de regressão. Considerando que o mercado brasileiro ainda se encontra em um estágio incipiente na análise de LGD e a disponibilidade de dados de taxas de recuperação é restrita, foram simulados portfólios de crédito através de técnicas de Monte Carlo. A dependência entre LGD e as variáveis explicativas das percentagens de perdas em caso de inadimplência é modelada através de cópulas gaussianas e de matrizes bi-estocásticas. Os resultados sugerem que a análise de regressão multivariada, usando diversas funções de transformação, possibilita identificar adequadamente as variáveis que explicam LGD.

A concessão de crédito é requisito essencial para o desenvolvimento de um país. Nos últimos anos, a oferta de crédito no Brasil tem aumentado de maneira significativa, influenciada por diversos fatores importantes, como a queda nas taxas de juros, o aumento do prazo médio das operações e a estabilidade econômica.

Segundo dados do Banco Central do Brasil (Bacen), o estoque total de empréstimos bancários no sistema financeiro em relação ao PIB passou de 31,6% em 2007 para 47,2% em 2010. Essa ampliação de recursos destinados à concessão de crédito causa também o aumento dos riscos e a necessidade de maior controle por parte das instituições financeiras e do regulador do mercado, o Bacen.

O Gráfico 1 mostra a Relação Crédito/PIB no Brasil e em outros países do mundo, em porcentagem, e indica que o Brasil ainda empresta pouco em relação a seu Produto Interno Bruto (PIB), comparando-se com países desenvolvidos como Espanha e Estados Unidos e com países emergentes como o Chile e a Malásia. Se a tendência de aumento do crédito atual for mantida, é possível que o Brasil alcance em alguns anos os níveis dos países com maior volume de financiamentos em relação ao PIB no mundo. Por isso, será cada vez mais importante para os bancos precificarem e gerenciarem o risco de crédito de maneira mais precisa, utilizando sistemas mais sofisticados de gestão. Já o Bacen deve estar apto a exigir requisitos mínimos de capital que consigam refletir o verdadeiro risco das carteiras de crédito dos bancos, seguindo diretrizes traçadas internacionalmente pelo Comitê de Basileia II e adaptando algumas regras para as especificidades do mercado brasileiro.



No Brasil, o Banco Central determinou, em 2004, através do comunicado nº 12.746, o cronograma de implementação de Basileia II, com previsão de encerramento no final de 2011. Em outubro de 2009 ocorreu a última atualização do cronograma, através do comunicado nº 19.028, e a previsão de encerramento do processo de implantação foi alterada para o final do primeiro semestre de 2013. Em fevereiro de 2011, o Bacen publicou o Edital de Audiência Pública nº 37, com as regras que devem fazer parte do documento final de Basileia II no Brasil e que irão reger o sistema bancário nacional.

O presente estudo pretende verificar o comportamento das perdas em carteiras de crédito simuladas com técnicas de Monte Carlo e, além disso, realizar estimativas de LGD utilizando dois diferentes modelos descritos na literatura e comparar os resultados obtidos por cada um deles. Os valores estimados de LGD são utilizados no cálculo do Capital Mínimo Exigido (CME), determinante do capital alocado pela instituição financeira, através dos modelos internos na abordagem IRB avançada. Dada a escassez de dados de perdas em carteiras de empréstimos disponíveis ao público, este estudo utiliza bases de dados simuladas com técnicas de Monte Carlo. Para a criação de dependência entre algumas variáveis explicativas aleatórias, foram utilizadas cópulas gaussianas e, no processo de junção das variáveis com as observações de LGD, foram utilizadas matrizes estocásticas duplas.

No procedimento utilizado, primeiramente os valores de LGD e das variáveis explicativas que compõem as bases de dados do estudo são simulados. Em seguida, essas bases são utilizadas para a realização de estimativas do parâmetro LGD através: (i) do modelo desenvolvido por Hamerle et al. e (ii) do LossCalc, da Moody’s KMV, descrito por Gupton e Stein. Finalmente, os resultados obtidos por cada modelo de estimação de LGD dentro dos portfólios de crédito resultantes das simulações serão comparados.

Este trabalho pode servir como base para as instituições financeiras analisarem e estimarem de forma mais precisa suas perdas de crédito e as eventuais recuperações incorridas em seus portfólios, utilizando a metodologia nele descrita e adaptando as informações e as variáveis do estudo pelos seus dados observados internamente. Além disso, o trabalho pode ser utilizado pelos bancos com poucas observações de perdas na simulação de portfólios de crédito fictícios.

Em resumo, a metodologia se baseia em três etapas principais: (i) desenvolvimento de portfólios de crédito utilizando simulação de Monte Carlo, cada um contendo 10.000 observações de LGD, que são formadas pela junção de duas variáveis com distribuição Beta, uma com assimetria à direita e outra com assimetria à esquerda, e 10.000 observações de quatro variáveis explicativas de clientes inadimplentes, sendo duas delas seguindo uma distribuição Beta, uma com distribuição normal e uma com distribuição de Bernoulli; (ii) realização de estimativas de LGD das carteiras simuladas, utilizando dois modelos descritos na literatura e (iii) comparação dos resultados obtidos com a aplicação dos dois modelos de estimação de LGD.

Mais especificamente, a simulação de dados envolve (i) o uso de cópulas gaussianas para a modelagem de dependência entre as variáveis explicativas associadas à inadimplência e (ii) o confronto entre percentis da variável LGD e das variáveis independentes levando-se em consideração uma matriz bi-estocástica como referência. A estimação do modelo de LGD através dos dados gerados por simulação de Monte Carlo é realizada usando-se regressão linear múltipla.

As cópulas gaussianas são geradas a partir da correlação entre as variáveis explicativas. Dentro do estudo, foram utilizados quatro conjuntos de correlações diferentes na simulação das carteiras de crédito, e verificou-se que não houve impacto significativo nos resultados das regressões dependendo da correlação utilizada.

A simulação de dados é fundamental no desenvolvimento deste trabalho, dadas as dificuldades na obtenção de dados reais de LGD em carteiras de crédito no Brasil. Desta forma, o presente estudo deve resultar em uma ferramenta teórica importante de análise de carteiras para as instituições financeiras, que serão capazes de controlar melhor suas perdas esperadas e inesperadas, seguindo também as diretrizes do acordo de Basileia II e do Bacen. A metodologia desenvolvida pode ser utilizada por instituições financeiras que desejem realizar estimativas de LGD para verificar quais variáveis impactam nas perdas em seus portfólios de crédito.

Depois de simuladas as bases de dados, foram utilizados no estudo dois modelos descritos na literatura, que são apresentados a seguir.

Modelo Logit

Uma vez que a LGD é expressa de forma percentual, variando entre 0 e 1, não é possível realizar estimativas diretamente através de regressão linear. Assim, é necessário seguir um procedimento de transformação do tipo Logit nas observações de LGD da base de dados de desenvolvimento para então realizar estimativas através de regressão linear e obter os coeficientes de cada variável transformada. Em seguida, utilizando os coeficientes obtidos na regressão, são estimados os valores que serão posteriormente transformados em observações de LGD através da função inversa utilizada no início do procedimento.

Nos dados deste trabalho, são realizadas regressões lineares dos parâmetros explicativos que foram simulados contra os valores transformados das observações de LGD, utilizando-se o método dos mínimos quadrados ordinários.

Modelo LossCalc, da Moody’s KMV

O LossCalc é um sistema desenvolvido pela Moody’s KMV que considera a taxa de recuperação no momento da inadimplência como uma variável estocástica independente da PD e igual a 1 – LGD. É utilizado por investidores e instituições financeiras nas estimativas de LGD para eventos de inadimplência ocorridos imediatamente ou que venham a ocorrer dentro de um ano.

Partindo das observações de LGD nas bases de dados simuladas, criadas através da combinação de duas variáveis com distribuição Beta, característica bimodal e que variam entre 0 e 1, é necessário realizar uma transformação Beta para deixar a variável dependente normalmente distribuída e utilizar, assim, uma regressão linear na estimativa dos coeficientes apropriados dos fatores preditivos, tendo como variável dependente o valor transformado de LGD. Depois de estimados os valores de LGD no “espaço normal”, aplica-se a transformada inversa para levar estes valores ao “espaço de LGD”, resultando nas estimativas de LGD para cada exposição de crédito.

Novamente, foi utilizado o método dos mínimos quadrados ordinários na regressão linear dos parâmetros explicativos contra os valores transformados de LGD.

Resultados e comentários finais

Os resultados das regressões lineares indicam que o modelo de Hamerle et al., que utiliza a transformação do tipo Logit, em comparação ao LossCalc, com a transformação Beta, foi o que teve a melhor qualidade no ajuste à linha de regressão, ou o maior valor de R2, em todas as bases de dados simuladas neste estudo, independentemente da correlação utilizada entre as variáveis explicativas. A Figura 1 (Histograma das variáveis simuladas no estudo) apresenta a distribuição das variáveis dependentes e independentes simuladas em uma das bases de dados utilizadas.

Algumas limitações da metodologia de simulação podem ser elencadas, como, por exemplo, o alto ajuste observado dos modelos em relação à reta de regressão, devido ao tipo de construção das bases utilizado. Como sugestão, as combinações entre as variáveis explicativas e LGD poderiam ser feitas por outros métodos em vez da matriz estocástica dupla utilizada. Outra limitação é a não avaliação da acurácia e do desempenho dos modelos de previsão em testes fora-da-amostra e fora-do-tempo, devido à utilização de bases de dados simuladas.

Para a criação de dependência, uma sugestão em trabalhos futuros semelhantes seria a utilização de relações não-lineares entre as variáveis explicativas, ou seja, a criação de cópulas não gaussianas, visto que em dados reais é provável que as relações existentes entre as variáveis não sejam lineares. Outra sugestão seria a utilização da metodologia descrita em bases de dados reais de instituições financeiras com muitas ou poucas operações inadimplentes, para verificar o comportamento de variáveis não simuladas nas estimativas de perdas em portfólios de crédito. Adicionalmente, outras técnicas de estimação podem ser investigadas, em substituição à análise de regressão linear múltipla utilizada no presente estudo.

Finalmente, as instituições financeiras podem utilizar esse trabalho como base metodológica para sua gestão de risco de crédito, visto que ele apresenta importantes ferramentas de simulações de dados e, ao mesmo tempo, propõe modelos que podem ser utilizados na mensuração das perdas em portfólios de crédito. Além disso, os bancos seriam capazes de estimar de forma mais precisa a LGD de suas carteiras, parâmetro essencial no cálculo dos requisitos mínimos de capital, na abordagem IRB avançada, seguindo as diretrizes do acordo de Basileia II e as regras definidas pelo Bacen.

Fonte: Valor

11 janeiro 2019

Velocidade da Internet e Desenvolvimento do Município

O setor de processamento e terceirização de negócios está em expansão de Madagascar. Empregando entre 10 a 15 mil pessoas, algumas empresas estão optando pela ilha por uma combinação de custo e qualidade. Um dos fatores que tornam Madagascar atraente é a velocidade da internet, um requisito importante para chamadas de qualidade e serviço em tempo real.

Ter uma internet com elevada velocidade parece ser algo importante para que uma região possa desenvolver. Entretanto, em geral locais mais desenvolvidos geralmente possuem melhor qualidade na rede, o que impede, muitas vezes, que o ciclo de pobreza seja interrompido.

Um levantamento feito pelo site minhaconexao.com.br em 350 municípios brasileiros mostra que a localidade com pior conexão é Mulungu, na Paraíba. Mulungun possui menos de dez mil habitantes, distribuídos em 195,31 km2. O PIB per Capita da cidade está muito próximo ao menor do Brasil. Em Mulungu, a velocidade da internet é de 2,2 Mbps.

A localidade com maior velocidade de internet é Louveira, em São Paulo. Os seus 43 mil habitantes possuem um PIB per Capita de 270 mil reais/ano, um dos maiores do Brasil. O IDH da cidade é de 0,90, padrão de um país desenvolvido.

Usando os dados destes 350 municípios e os valores do PIB Per Capita, eu calculei a correlação entre os valores: foi significativa, de 0,34. O gráfico abaixo mostra a visualização da relação:

O que isto está dizendo? Que uma cidade com melhores níveis de desenvolvimento terá condições de fornecer melhor internet para sua população. As chances de uma empresa de processamento e tratamento de dados ou de call center instalar em Mulungu é próxima de zero.

O gráfico a seguir apresenta a relação entre o IDH do município e a velocidade da internet.
A correlação, de 0,353, também é significativa.

26 maio 2011

Contador = Impostos

A profissão contábil está muito vinculada a questão de tributos. Existem diversas situações onde isto aparece. Numa nova ferramenta do Google, denominada Correlate, você pode inserir uma palavra aparecem resultados com elevada correlação. Se você digitar “accountant” seis resultados vinculados a “tax” (impostos). Assim, “accountant” e “taxability” possuem correlação de 0,8617 nos resultados das pesquisas, entre 2004 a 2011.

10 dezembro 2011

Correlação e causalidade


Uma das minhas postagens preferidas aqui do blog é a que fala sobre correlação espúria por ser um assunto extremamente pertinente não só na vida academica, mas principalmente fora dela. Quem nunca leu uma reportagem na qual o jornalista faz conclusões absurdas sem o devido embasamento!? (O Phd Comics tem uma tirinha super engraçada com esse tema, mas não consegui encontrar e vou ficar devendo. Se alguém achar, deixe o link nos comentários, ok?)

Para refrescar o assunto, uma postagem da PharmaCoaching:


(...)

Desde os seus primórdios, o homem sempre tentou encontrar sentido para tudo o que acontecia ao seu redor. Buscava explicações, inclusive, para fenômenos naturais como a chuva, o nascimento de um bezerro, ou um apêndice inflamado.

Tal comportamento explica-se pela necessidade de estar no controle: se você sabe as causas, você pode tentar controlar as consequências; se não sabe, aquilo está fora do seu controle.

Para atender a esta necessidade em encontrar explicações, valia qualquer coisa, inclusive encontrar padrões onde eles não existiam. Dos primórdios da humanidade até hoje, costumamos confundir coincidência (fatos que acontecem juntos por puro acaso) com causalidade (um fato causando e sendo responsável pelo outro).

Se um homem das cavernas subia numa árvore antes da chuva, ele fazia todos subirem em árvores quando queria que chovesse novamente. Se a vaca comesse um jiló e o bezerro nascesse forte, a dieta básica das vacas prenhas passava a ser jiló. E se alguém matasse um besouro na véspera de o seu apêndice estourar, o inseto tornava-se intocável.

(...)

Superstições nascem, assim, de coisas que coincidentemente acontecem antes dos eventos aos quais estamos prestando atenção. A relação é reforçada, ainda, porque convenientemente nos esquecemos das vezes em que o evento acontece sem que a coisa tenha ocorrido antes.

Quando enxergamos um padrão onde ele não existe, cometemos um Erro Tipo I - ou um Falso Positivo. Mas quando não enxergamos um padrão onde, de fato, ele existe, cometemos um Erro Tipo II - ou um Falso Negativo. Vejamos um exemplo prático:

Um paciente chega ao pronto socorro queixando-se de dores no peito. O médico plantonista precisa avaliar se ele está enfartando ou não.

Se o paciente não estiver enfartando e o médico disser que ele está bem de saúde, então o diagnóstico está correto. Se o médico disser, no entanto, que este paciente (que não está enfartando) deve receber o tratamento indicado para casos de enfarte, incorrerá num Erro Tipo I, ou Falso Positivo (dizer que ele tem uma condição que ele, na verdade, não tem).

Se o paciente estiver enfartando e o médico fizer o diagnóstico correto, ele receberá o tratamento adequado. Mas se estiver enfartando e o médico disser que não está, temos um clássico exemplo de Erro Tipo II, ou Falso Negativo (dizer que ele não tem uma condição que ele, na verdade, tem). (...)

Em situações novas, sempre estamos sujeitos a cometer um dos dois tipos de erros - mas nunca sabemos qual. O problema consiste, então, em avaliar o quanto cada erro pode custar. No exemplo acima, um Falso Positivo fará com que o paciente receba um tratamento de que não precisa, enquanto que com um Falso Negativo ele correrá risco de morte.

Assim, o custo de um Falso Negativo (risco de morte) é maior do que o risco de um Falso Positivo (gastos com tratamento desnecessário e possíveis eventos adversos). Em Medicina, este tipo de preferência em pecar pelo excesso é, de certa forma, justificável pois, muitas vezes, as consequências são irreversíveis.

Em muitas situações do dia-a-dia, contudo, os custos cumulativos dos Falsos Positivos acabam não aparecendo na conta final - exatamente porque não os percebemos.

A capacidade de encontrar padrões representa uma das mais valiosas habilidades das pessoas criativas. Mas quando em excesso, dá margem às superstições ou, em casos mais patológicos, à paranoia.

Para fugir das armadilhas do causalismo é preciso questionar se as relações que você está enxergando realmente fazem sentido (usar a mesma camisa em todas as provas faz você ficar mais inteligente?). Ao avaliar a ligação entre dois eventos, veja se não há um terceiro que cause os dois e, principalmente, se aquele que causa ocorre antes daquele que é causado.