Translate

08 abril 2019

Crise da Replicação pode ser bom para a ciência

A discussão sobre a reprodução de pesquisas na ciência tem mostrado que diversos estudos (aqui, por exemplo) realizados no passado, publicados em periódicos científicos de excelência, apresentaram resultados forçados.

Há alguns anos um erro em uma planilha Excel foi descoberto graças a replicação de um trabalho.

Um texto do The Conversation afirma que a “crise da replicação” é boa para ciência. E apresenta diversos argumentos onde o esforço de replicação pode ajudar no progresso científico.

Alguns periódicos agora exigem que os cientistas disponibilizem seus dados e códigos de computador, o que torna mais provável que outros detectem erros em seu trabalho. Além do mais, alguns cientistas podem agora "pré-registrar" suas hipóteses antes de iniciar seu estudo - o equivalente a chamar sua chance antes de começar.

Combinado com o compartilhamento aberto de materiais e dados, o pré-registro melhora a transparência e a reprodutibilidade da ciência, assegurando que uma fração menor de estudos futuros não seja replicada.

Além disto, a discussão pode fazer com que os pesquisadores tenham uma visão melhor sobre os métodos usados. Recentemente, um grupo de cientistas defendeu o abandono da significância estatística.

A incrível possibilidade de que uma grande fração das descobertas de pesquisas publicadas possa ser apenas casual é exatamente o motivo pelo qual as pessoas falam da crise de replicação. Mas não é realmente uma crise científica, porque a consciência está trazendo melhorias na prática de pesquisa, novos entendimentos sobre inferência estatística e uma apreciação de que descobertas isoladas devem ser interpretadas como parte de um padrão maior.

Em vez de minar a ciência, sinto que isso está reafirmando as melhores práticas do método científico.

Estimativas Contábeis via Machine Learning

Resumo:

The progressive migration of financial reporting from the cost basis to fair values has created the need for a wide range of estimates to be included into the process. These values are in general clearly an improvement on obsolete cost based measurements but also create the possibility of self-serving manipulation of critical financial information. This study shows that critical estimates in one particular industry are quite weak and finds that the usage of a set of different algorithms including the ones used in machine learning to predict estimates produces far superior results.
Fonte: Ding, Kexing and Lev, Baruch Itamar and Peng, Xuan and Sun, Ting and Vasarhelyi, Miklos A., On Creating Accounting Estimates using Machine Learning (September 21, 2018). Available at SSRN: https://ssrn.com/abstract=3253220 or http://dx.doi.org/10.2139/ssrn.3253220

[...]

To prove this I teamed up with a great group of ML experts at Rutgers University (Miklos Vasarhelyi, Kexing Ding, Xuan Peng, and Ting Sun). In the first research on the use of ML in accounting, we focus on property & casualty insurance companies. The reason: a major cost item of these companies is the “future loss estimate.” Explanation: For insurance policies written (earned) in a given year, the major cost item are the payments made on insurance claims (car accidents, home damage, etc.). But that’s not the end of the story. People can, and often do claim damages years later, like long-term effects of concussions. So, in addition to claims paid during the insured year, there will be claims to be paid in the future years (“insurance long tails”). Thus, a proper measurement of insurance companies’ earnings requires accounting for both claims paid during the year, and an estimate of future claims― “future loss estimates.” These are generally large estimates having a material effect on insurance companies’ reported earnings. We focus on these estimates in our ML research.

In essence, we conducted a horse-race between managers’ annual loss estimates and the ML predictions of future claims, both compared to the actual claims paid over the subsequent 10 years. Humans, with all their frailties (manipulation) vs. machines, like former world chess champion Gary Kasparov playing against a computer.

[...]

By using ML, you can cut managers’ errors by more than a third! And this is just our initial run of ML predictions. Improvements are coming. (The third row in the table show the impact of one of our predictors―top management compensation. Without this key variable, the average error improvement decreases by 5-10%. Second vs. third rows).

q2

Summarizing, this is the first demonstration of the use of Machine Learning in improving the quality and reliability of financial information. In addition to insurance companies’ loss estimates, ML can be applied to a wide range of managerial accounting estimates, like the bad debt reserve, future payments on warranties, pension estimates, etc., etc. Very promising indeed, leading me to the final figure:

07 abril 2019

Grandes cientistas

Na sua coluna semanal, Fernando Reinach comenta sobre o que seria um grande cientista (grifo nosso):

(...) Recentemente, usando esse método [de mais citações], a Clarivate Analytics elaborou uma lista dos 6.078 melhores cientistas entre os 9 milhões que existem na Terra. E entre os 6.078 estão alguns brasileiros que trabalham aqui na pátria amada. Não aguentei e fui ver quem era o mais citado do Brasil. Encontrei o nome de Álvaro Avezum, um cardiologista do Dante Pazzanese. Ele é o brasileiro com mais citações: 39.593 distribuídas em 237 trabalhos científicos. [Recentemente, o Valor Econômico deu destaque para esta lista, no seu caderno de final de semana]

Mas o que teria descoberto Álvaro Avezum para ser tão citado? Imediatamente fui atrás do seu trabalho científico mais citado. É um trabalho de 2004 publicado na Lancet, uma das melhores revistas científicas do mundo, talvez a melhor da área médica. Esse trabalho teve nada menos que 11.367 citações desde 2004. Para você ter uma ideia, o trabalho de Watson e Crick, publicado em 1953, relata talvez a mais importante descoberta do século 20, a estrutura do DNA. Esse trabalho, que rendeu um Prêmio Nobel aos dois, só acumulou 12.572 citações. Claro que fui ler o tão citado trabalho do brasileiro.

O trabalho é realmente importante. Foi ele que demonstrou que fumar, ter colesterol alto, diabete, sobrepeso e sedentarismo são fatores de risco para doenças cardiovasculares, principalmente enfarte do miocárdio. É com base nele que toda a prevenção de doenças cardiovasculares se baseia. E eu que não sabia que isso havia sido descoberto por um brasileiro! Mas vamos aos detalhes, que é onde o diabo se esconde.

A descoberta que esses fatores aumentam sua chance de enfartar foi feita na Europa bem antes desse trabalho ser iniciado. Mas como a amostra de pacientes só incluía europeus, um grupo de cientistas canadenses decidiu que era preciso estender essa observação para o resto da população mundial e resolveu repetir o estudo. Foi montada uma rede de cardiologistas em 262 centros de pesquisa em 52 países.

O trabalho consistia em selecionar pacientes que aparecessem no hospital sofrendo um enfarte do miocárdio. Para cada paciente era necessário um questionário e amostra de sangue e identificar uma pessoa com características semelhantes que não tivesse enfartado. O estudo coletou dados de 15.152 pacientes e 14.820 controles. Após longa análise, os canadenses concluíram que os resultados dos pacientes europeus valiam para todos.

Como esse trabalho envolveu médicos de todo o mundo, o número de autores no trabalho é enorme: são 415. Entre eles estão 19 brasileiros, e entre os brasileiros está Álvaro Avezum, que coordenou as atividades no Brasil. Mas qual foi a contribuição? Entre fevereiro de 1999 e março de 2003, eles enviaram dados de brasileiros para o Canadá. Cada um dos 19 cientistas brasileiros enviou dados de dois pacientes por mês, em média. Foi essa a contribuição brasileira.

É claro que essa não é a mais importante descoberta da ciência brasileira. Recentemente, um matemático do Rio ganhou a medalha Fields – o prêmio de matemática mais importante do Mundo. Esses 19 brasileiros colaboraram em um trabalho científico que se tornou importante, é verdade e louvável. Mas dizer que essa é a mais importante descoberta do mais importante cientista brasileiro é claramente um erro crasso de julgamento. Se realmente queremos avaliar cientistas de maneira justa vamos ter que voltar ao básico: grande cientista é quem faz grande descoberta e para isso é necessário entender a descoberta, sua importância e a contribuição do autor.

Outra situação interessante: um dos autores mais citados é Gujarati. O que fez ele? Escreveu um excelente de estatística. Muitos trabalhos científicos citam Gujarati para sustentar suas escolhas nos métodos.

O que realmente deveríamos estudar na escola



Vimos a dica do vídeo no Instagram @conversacontabil.

No vídeo ela comenta que geralmente uma família elege uma pessoa para declarar o imposto de renda de todo mundo. Alguém se identifica?

Eu achei engraçado e ri um pouco da confusão...


Rir é o melhor remédio


06 abril 2019

Os grandes problemas do Deep Learning


Here’s my view: deep learning really is great, but it’s the wrong tool for the job of cognition writ large; it’s a tool for perceptual classification, when general intelligence involves so much more. What I was saying in 2012 (and have never deviated from) is that deep learning ought to be part of the workflow for AI, not the whole thing (“just one element in a very complicated ensemble of things”, as I put it then, “not a universal solvent, [just] one tool among many” as I put it in January). Deep learning is, like anything else we might consider, a tool with particular strengths, and particular weaknesses. Nobody should be surprised by this.

Deep learning is important work, with immediate practical applications.

Realistically, deep learning is only part of the larger challenge of building intelligent machines. Such techniques lack ways of representing causal relationships (such as between diseases and their symptoms), and are likely to face challenges in acquiring abstract ideas like “sibling” or “identical to.” They have no obvious ways of performing logical inferences, and they are also still a long way from integrating abstract knowledge, such as information about what objects are, what they are for, and how they are typically used. The most powerful A.I. systems … use techniques like deep learning as just one element in a very complicated ensemble of techniques, ranging from the statistical technique of Bayesian inference to deductive reasoning.

[...]

At that time I concluded in part that (excerpting from the concluding summary argument):
Humans can generalize a wide range of universals to arbitrary novel instances. They appear to do so in many areas of language (including syntax, morphology, and discourse) and thought (including transitive inference, entailments, and class-inclusion relationships).

Advocates of symbol-manipulation assume that the mind instantiates symbol-manipulating mechanisms including symbols, categories, and variables, and mechanisms for assigning instances to categories and representing and extending relationships between variables. This account provides a straightforward framework for understanding how universals are extended to arbitrary novel instances.

Current eliminative connectionist models map input vectors to output vectors using the back-propagation algorithm (or one of its variants).

To generalize universals to arbitrary novel instances, these models would need to generalize outside the training space.

These models cannot generalize outside the training space.
Therefore, current eliminative connectionist models cannot account for those cognitive phenomena that involve universals that can be freely extended to arbitrary cases.


Resultado de imagem para Deep Learning overrated

Tesouro Direto reduz spread do Tesouro Selic para 0,01% ao ano

O Tesouro Direto dá mais um passo importante na redução dos custos de aplicação no Tesouro Selic; mudança faz parte de um contínuo processo de melhorias

O Tesouro Nacional está reduzindo a diferença entre a taxa de investimento e a taxa de resgate – conhecida como spread de compra e venda – do Tesouro Selic de 0,04% para 0,01% ao ano (ou 1 ponto-base). Essa alteração é parte do contínuo processo de aprimoramentos no Tesouro Direto e terá como resultado a redução dos custos de aplicação para o investidor e, consequentemente, o aumento de sua rentabilidade líquida.

O spread justifica-se pela necessidade de evitar que as oscilações dos preços praticados no mercado secundário, que servem de referência para o Tesouro Direto, resultem em perdas para o investidor ou para o Tesouro Nacional.

Agora, com a evolução do Programa e por meio de desenvolvimentos tecnológicos e operacionais, o Tesouro Direto reduz o spread, criando mais flexibilidade para o investidor que precisa resgatar seu Tesouro Selic antes do prazo de vencimento. O novo spread passa a valer a partir desta sexta-feira, 5 de abril de 2019.

A redução do spread potencializa o impacto positivo da rentabilidade do Tesouro Selic. Dessa forma, o Tesouro Nacional reafirma seu compromisso em proporcionar à população um investimento atraente, com custos cada vez menores, em um ambiente de redução das taxas de juros na economia brasileira.


Fonte: aqui.

Eenviado pelo Glauber, a quem agradecemos.

Renda Fixa x Variável: o caso do Brasil


A teoria financeira prega que, se há mais risco, o retorno de um investimento é maior, mas a renda fixa, com riscos bem menores, resultou em ganhos maiores do que o Ibovespa no longo prazo.

Uma crença bastante arraigada entre muitos gestores e analistas é que a renda variável gera ganhos maiores do que a renda fixa no longo prazo. Isto é, a cotação das ações pode oscilar, mas sempre vale mais a pena o investimento mais arriscado nos horizontes mais longos. Isso porque, em teoria, ao assumir riscos maiores, investidores exigem retornos maiores. No longo prazo, o retorno maior se realizaria, compensando o risco incorrido.

Há lógica nesse raciocínio, válido para todas as economias desenvolvidas. No entanto, o Brasil tem um longo histórico de taxas de juros altíssimas. Tivemos incríveis 65% ao ano em 1994 e45% em 1999, já com a inflação controlada. Mesmo em anos mais recentes, como 2015 e 2016, as taxas estiveram acima de 14% — bem maiores dos atuais 6,5%.

Para testar essa crença, é preciso antes de tudo definir “longo prazo”. É um conceito elástico, que em economia pode significar o infinito. Alguns gestores e investidores falam em cinco anos, outros, em 10, 20 ou 30 anos.

Além disso, nem todas as pessoas investem no mesmo dia — é preciso levar em conta todos os pontos de entrada e saída de investimentos. Considerando um prazo de 10 anos, uma pessoa pode ter entrado em 2005 e saído em 2015 e o resultado será diferente do que se tivesse entrado em 2000 e saído em 2010 ou qualquer outro período de 10 anos. A maneira mais correta de saber, então, é variar janelas de tempo com todas as possibilidades de entrada.

Para entender melhor essa discussão, resolvemos fazer as contas. Para representar a bolsa, utilizamos o Ibovespa, que reúne 80% das ações mais negociadas. Consideramos o retorno realizado via proventos e dividendos e descontamos o Imposto de Renda.

Já para a renda fixa foi preciso combinar taxas, já que não existe um único índice com histórico tão longo. Utilizamos as Obrigações Reajustáveis do Tesouro Nacional (ORTNs), disponíveis no site debit.com.br, para o período de 1968 a 1974. De 1974 a 1986, consideramos a taxa over, que pode ser consultada no site do Ipea (ipeadata.com.br). E a partir de 1986, o CDI, disponível no portal Economática . Nesse caso, foram considerados 100% da taxa.

A comparação foi feita com todas as janelas de investimento em três períodos: desde 1968, ano de criação do Ibovespa; 1986, incluindo o CDI; e 1994, com a estabilização da economia a partir do Plano Real.

Desde 1994, há 14.908.530 diferentes combinações com horizontes de investimento variando de 500 a 5.959 dias úteis. A renda variável ganha só em 4.154.852 (28%) das vezes e a renda fixa, em 10.753.678 (72%). Para 2.520 dias úteis (cerca de 10 anos), há 3.340 combinações, das quais o CDI ganha 2.232 vezes (65%) contra 1.208 vezes (35%) do Ibovespa.

Alguns gestores costumam alegar que os juros nas últimas duas décadas são uma anomalia. Devido à desorganização da economia e a inflação antes de 1994, o Plano Real teve taxas de juros muito altas para controlar a inflação. Recuando ou avançando no tempo, a desvantagem da renda variável permanece.

Para o período de 1986 em diante, há mais de 30 milhões de combinações, contemplando horizontes de investimento entre 500 e 8.267 dias úteis. Nova lavada da renda fixa, que em 75% das vezes, desbanca o investimento de maior risco.

Por exemplo, para 5.040 dias úteis (aproximadamente 20 anos), temos 3.228 combinações; nesse caso o Ibovespa só ganha em 18% das vezes.

Já no maior período começando em 1968, há 74.963.890 combinações possíveis, das quais a bolsa só ganha em 32% das vezes. Para prazos de 7.560 dias úteis (30 anos), há 3.689 combinações; caso em que bolsa perde em 68% das vezes.

Em verdade, paradoxalmente, ao ampliar o prazo de investimentos, a chance de a renda fixa ter retornos maiores que a renda variável aumenta. É verdade que o número de eventos de mais longo prazo diminui, mas é sintomático que isso aconteça sistematicamente.

É importante lembrar, mais uma vez, que nas ocasiões em que um investidor entrou na bolsa visando ao longo prazo, era público quanto a renda fixa pagava. Em outras palavras, por mais alta que fosse a taxa de juros, gestores e investidores de renda variável no longo prazo acreditavam que teriam mais sucesso. No entanto, aqueles que entraram na bolsa para o longo prazo, na média, erraram feio.

Existe entre muitos gestores uma possível irracionalidade e um viés de supervalorizar os ganhos na renda variável. Claro que investimentos mais arriscados devem gerar retornos maiores, por isso é difícil entender o comportamento do mercado no Brasil. Difícil saber se os que brigam com os números não sabem trabalhar corretamente com os dados ou se essa é uma verdade inconveniente para aqueles que vendem renda variável. Afinal, os mesmos que hoje ganham do CDI ou da Selic no menor patamar histórico não admitem que perderam durante muitos anos

[...].

Fonte: No Brasil, retorno não compensou risco maior da renda variável- Samy Dana e Rodrigo De Losso -

.

Resultado de imagem para renda fixa x renda variavel

Rir é o melhor remédio

Conheça o autor
Fonte: Aqui

05 abril 2019

Mais sobre Ghosn

Saiu no G1:

Um tribunal de Tóquio prorrogou nesta sexta-feira (5), até o dia 14 de abril, a prisão provisória do ex-presidente da Nissan, o brasileiro Carlos Ghosn. O executivo voltou a ser detido na quarta-feira (3) por novas suspeitas de sonegação financeira.
[...]

A detenção de Ghosn ocorreu apenas um mês depois de o executivo ter sido libertado e um dia depois de ter anunciado no Twitter uma coletiva de imprensa para 11 de abril.

O ex-executivo foi preso desta vez devido à existência de um "risco de destruição de provas", declarou o procurador adjunto Shin Kukimoto.

Ghosn havia saído da prisão - sob fiança - em 6 de março, acusado de três crimes por declarações inexatas de rendimentos entre os anos 2010 e 2018 em documentos que a Nissan entregou a autoridades financeira.

A investigação que motivou a nova prisão refere-se a uma transferência de milhões de dólares para uma distribuidora de carros da Renault e da Nissan em Omã, no Oriente Médio.

Segundo a promotoria, parte do dinheiro transferido, cerca de US$ 5 milhões, acabou em uma conta bancária controlada pelo Ghosn. De acordo com a mídia local, o dinheiro foi usado para pagar por um iate familiar e cobrir empréstimos pessoais.

A prisão, que especialistas jurídicos sem relação com o caso descreveram como muito rara para alguém já solto sob fiança, faz parte da quarta acusação obtida pelos procuradores contra o executivo, em um escândalo que abalou a indústria automotiva global e provocou questionamentos sobre o sistema judicial do Japão.

As demais, assim como a primeira, referem-se a má conduta financeira ligada à declaração de suas rendas. Ele nega os crimes.

Fonte: Aqui

O maior divórcio da história

Jeff Bezos está finalizado o divórcio com a esposa MacKenzie. O FT publicou que o bilionário continuará com três quartos de sua participação na Amazon, enquanto ela ficará com ações no valor de mais de US $ 35 bilhões, mas entregará todos os seus direitos de voto na Amazon a Bezos, permitindo-lhe manter seu atual nível de controle na empresa que fundou há quase 25 anos e que hoje vale quase US $ 900 bilhões. Esse foi considerado o maior acordo do gênero. A divisão na participação conjunta de US $ 143 bilhões na Amazon resolve questões de governança e propriedade que pairaram no ar desde que o casal anunciou que estava se divorciando em janeiro.

MacKenzie será agora a 4ª mulher mais rica do mundo, atrás apenas de Francoise Bettencourt Meyers, Alice Walton e Jacqueline Mars.


Ele segue sendo o homem mais rico do mundo.

Rir é o melhor remédio

- Está vendo aquele prédio ali? É a biblioteca.
Se algum dia você quiser emprestado um livro, tudo o que tem a fazer é ir lá e dizer para eles qual você quer e eles te deixarão levá-lo para casa.
- De graça?
- Completamente de graça.
- Te faz imaginar o que estão aprontando...