Translate

03 junho 2020

Deep Fake


Vários vídeos deepfake se tornaram virais recentemente, dando a milhões de pessoas em todo o mundo o primeiro gosto dessa nova tecnologia

No mês passado, durante a série de documentários de sucesso da ESPN, “O Último Arremesso” (“The Last Dance”), a State Farm estreou um comercial de TV que se tornou um dos anúncios mais discutidos na memória recente. Parecia mostrar imagens de 1998 de um analista da ESPN fazendo previsões chocantes e precisas sobre o ano de 2020.

Como se viu, o clipe não era genuíno: foi gerado usando IA de ponta. O comercial surpreendeu, divertiu e encantou os espectadores.

O que os espectadores deveriam ter sentido, no entanto, era uma profunda preocupação.

O anúncio da State Farm foi um exemplo benigno de um novo e importante fenômeno perigoso na IA: deepfakes. A tecnologia deepfake permite que qualquer pessoa com um computador e uma conexão à internet crie fotos e vídeos com aparência realista de pessoas dizendo e fazendo coisas que na verdade não disseram ou fizeram.

Combinação das expressões “deep learning” (aprendizado profundo) e “fake” (falso), as deepfakes surgiram pela primeira vez na internet no final de 2017, alimentadas por um novo método inovador de aprendizado profundo conhecido como redes adversárias generativas (GANs, na sigla em inglês).

Vários vídeos deepfake se tornaram virais recentemente, dando a milhões de pessoas em todo o mundo o primeiro gosto dessa nova tecnologia, por exemplo: o presidente Obama usando um palavrão para descrever o presidente Trump, Mark Zuckerberg admitindo que o verdadeiro objetivo do Facebook é manipular e explorar seus usuários, Bill Hader se transformando em Al Pacino em um programa de entrevistas tarde da noite.

A quantidade de conteúdo deepfake online está crescendo rapidamente. No início de 2019, havia 7.964 vídeos deepfake online, de acordo com um relatório da startup Deeptrace. Apenas nove meses depois, esse número saltou para 14.678. Sem dúvida, continuou a crescer desde então.

Embora impressionante, a tecnologia deepfake de hoje ainda não é parecida com imagens de vídeo autênticos. Olhando de perto, normalmente é possível dizer que um vídeo é uma deepfake. Mas a tecnologia está melhorando em um ritmo de tirar o fôlego. Os especialistas prevêem que as deepfakes serão indistinguíveis das imagens reais em pouco tempo.

“Em janeiro de 2019, deepfakes eram travadas e mostravam tremulações”, disse Hany Farid, professor da UC Berkeley e especialista em deepfake. “Nove meses depois, nunca vi nada parecido com o quão rápido eles estão indo. Esta é a ponta do iceberg.”

Hoje, estamos em um ponto de inflexão. Nos próximos meses e anos, as deepfakes ameaçam sair de um estado de raridade na internet para uma força política e social amplamente destrutiva. A sociedade precisa agir agora para se preparar.

Não confie em tudo que vê

O primeiro caso de uso ao qual a tecnologia deepfake foi amplamente aplicada (como costuma ser o caso das novas tecnologias) é a pornografia. Em setembro de 2019, 96% dos vídeos deepfake online eram pornográficos, de acordo com o relatório Deeptrace.

Surgiram vários sites dedicados especificamente à pornografia deepfake, que coletivamente receberam centenas de milhões de visualizações nos últimos dois anos. A pornografia deepfake quase sempre não é consensual, envolvendo a síntese artificial de vídeos explícitos que apresentam celebridades famosas ou contatos pessoais.

Saindo dos cantos escuros da web, o uso de deepfakes começou a se espalhar para a esfera política, onde o potencial de confusão é ainda maior.

Não é preciso muita imaginação para entender o mal que poderia ser causado se populações inteiras pudessem exibir vídeos fabricados que parecem ser reais. Imagine imagens deepfake de um político envolvido em suborno ou agressão sexual antes de uma eleição, ou soldados dos EUA cometendo atrocidades contra civis no exterior ou do presidente Trump declarando o lançamento de armas nucleares contra a Coreia do Norte. Em um mundo em que ainda existe alguma incerteza sobre a autenticidade de alguns vídeos, as consequências podem ser catastróficas.

Por causa da ampla acessibilidade da tecnologia, essas imagens podem ser criadas por qualquer pessoa: atores patrocinados pelo Estado, grupos políticos, indivíduos isolados.

Em um relatório recente, a Brookings Institution listou os perigos políticos e sociais que as deepfakes representam: “distorção do discurso democrático, manipulação de eleições, diminuição da confiança nas instituições, enfraquecimento do jornalismo, aumento de divisões sociais, comprometimento da segurança pública, e danos difíceis de reparar à reputação de pessoas proeminentes, incluindo cargos públicos e candidatos a cargos.”

Dado o que está em jogo, os legisladores dos EUA começaram a prestar atenção.

“Antigamente, se você queria ameaçar os Estados Unidos, precisava de 10 porta-aviões, armas nucleares e mísseis de longo alcance”, disse recentemente o senador Marco Rubio. “Hoje tudo o que você precisa é a capacidade de produzir um vídeo falso muito realista que possa prejudicar nossas eleições, que possa lançar nosso país em uma tremenda crise interna e nos enfraquecer profundamente.”

Os especialistas em tecnologia concordam. Nas palavras de Hani Farid, um dos principais especialistas mundiais em deepfakes: “Se não podemos acreditar nos vídeos, nos áudios, na imagem, nas informações coletadas em todo o mundo, isso representa um sério risco à segurança nacional.”

Esse risco não é mais apenas hipotético: existem exemplos iniciais de deepfakes que influenciam a política no mundo real. Especialistas afirmam que esses incidentes são apenas um alerta do que está por vir.

No mês passado, um grupo político na Bélgica divulgou um vídeo em profundidade do primeiro-ministro belga, fazendo um discurso que ligava o surto de Covid-19 a danos ambientais e pedia ações drásticas sobre as mudanças climáticas. Pelo menos alguns espectadores acreditavam que o discurso era real.

Apenas a mera possibilidade de um vídeo ser um deepfake já pode gerar confusão e facilitar o engano político, independentemente de a tecnologia ter sido realmente usada. O exemplo mais dramático disso vem do Gabão, um pequeno país da África central.

No final de 2018, o presidente do Gabão, Ali Bongo, não era visto em público havia meses. Havia rumores de que ele não era mais saudável o suficiente para o cargo ou mesmo que ele tinha morrido. Na tentativa de acalmar essas preocupações e reafirmar a liderança de Bongo sobre o país, seu governo anunciou que ele daria um discurso televisionado em todo o país no dia de Ano Novo.

No vídeo, Bongo parece rígido e empolgado, com discurso não natural e maneirismos faciais. O vídeo imediatamente provocou suspeitas de que o governo estivesse ocultando algo do público. Os opositores políticos declararam que as filmagens eram um golpe profundo e que o presidente estava incapacitado ou morto. Os rumores de uma conspiração profunda se espalharam rapidamente nas mídias sociais.

A situação política no Gabão se desestabilizou rapidamente. Dentro de uma semana, os militares lançaram um golpe –o primeiro no país desde 1964–, citando o vídeo do Ano Novo como prova de que algo estava errado com o presidente.

Até hoje, os especialistas não podem dizer definitivamente se o vídeo de Ano Novo era autêntico, embora a maioria acredite que era. (O golpe não teve êxito; Bongo apareceu em público e permanece no cargo hoje).

Mas se a veracidade do vídeo é quase irrelevante. A lição mais ampla é que o surgimento de deepfakes tornará cada vez mais difícil para o público distinguir entre o que é real e o que é falso, uma situação que os atores políticos inevitavelmente explorarão –com consequências potencialmente devastadoras.

“As pessoas já estão usando o fato de que as deepfakes existem para desacreditar evidências de vídeo genuínas”, disse o professor da USC, Hao Li. “Embora haja imagens de alguém fazendo ou dizendo algo, você pode dizer que é uma deepfake e é muito difícil provar o contrário.”

Em dois incidentes recentes, políticos na Malásia e no Brasil tentaram evitar as consequências de vídeos, alegando que as imagens eram falsas. Nos dois casos, ninguém foi capaz de estabelecer definitivamente o contrário –e a opinião pública permaneceu dividida.

A pesquisadora Aviv Ovadya alerta sobre o que ela chama de “apatia da realidade”: “É preciso muito esforço para descobrir o que é real e o que não é, então você tende a valorizar mais aquilo que reforça suas crenças anteriores ao ocorrido.”

Em um mundo em que imagens não são mais representantes da verdade, a capacidade de uma grande comunidade concordar com o que é verdadeiro –ou de se envolver em um diálogo construtivo sobre o assunto– de repente parece precária.

Um jogo tecnológico de gato e rato

A principal tecnologia que possibilita as deepfakes é um ramo do deep learning, conhecido como redes contraditórias generativas (GANs, na sigla em inglês). As GANs foram inventadas por Ian Goodfellow em 2014 durante seus estudos de doutorado na Universidade de Montreal, um dos principais institutos de pesquisa em IA do mundo.

Em 2016, Yann LeCun chamou as GANs de “a ideia mais interessante nos últimos dez anos em aprendizado de máquina”.

Antes do desenvolvimento das GANs, as redes neurais eram hábeis em classificar o conteúdo existente (por exemplo, entender a fala ou reconhecer rostos), mas não na criação de novos conteúdos. As GANs deram às redes neurais o poder não apenas de perceber, mas de criar.

A inovação conceitual de Goodfellow foi arquitetar GANs usando duas redes neurais separadas –uma conhecida como “geradora” e outra conhecida como “discriminadora”– e colocá-las umas contra as outras.

Começando com um determinado conjunto de dados (por exemplo, uma coleção de fotos de rostos humanos), o gerador começa a criar novas imagens que, em termos de pixels, são matematicamente semelhantes às imagens existentes. Enquanto isso, o discriminador recebe fotos sem saber se elas são do conjunto de dados original ou da saída do gerador; sua tarefa é identificar quais fotos são sintéticas.

À medida que as duas redes trabalham interativamente uma contra a outra –o gerador tentando enganar o discriminador, o discriminador tentando descobrir as criações do gerador– elas aprimoram as capacidades um do outro. Eventualmente, a taxa de sucesso da classificação do discriminador cai para 50%, nada melhor do que suposições aleatórias, o que significa que as fotos geradas sinteticamente se tornaram indistinguíveis das originais.

Uma das razões pelas quais deepfakes proliferaram é o ethos de código aberto da comunidade de aprendizado de máquina: a partir do artigo original da Goodfellow, sempre que ocorre um avanço na pesquisa em modelagem generativa, a tecnologia geralmente é disponibilizada gratuitamente para qualquer pessoa no mundo baixar e utilizar.

Dado que as deepfakes são baseadas inteligência artificial em primeiro lugar, alguns consideram a IA uma solução para aplicativos prejudiciais da complexa tecnologia. Por exemplo, os pesquisadores construíram sistemas sofisticados de detecção de deepfake que avaliam iluminação, sombras, movimentos faciais e outros recursos para sinalizar imagens fabricadas. Outra abordagem defensiva inovadora é adicionar um filtro a um arquivo de imagem que impossibilite a geração de uma deepfake.

Surgiram várias startups que oferecem software para se defender contra a essa tecnologia, incluindo Truepic e Deeptrace.

No entanto, é provável que essas soluções tecnológicas não impeçam a propagação de deepfakes no longo prazo. Na melhor das hipóteses, elas levarão a uma dinâmica interminável de gato e rato, semelhante à que existe hoje na segurança cibernética, na qual os avanços na pesquisa de detecção de deepfake estimulam mais inovações no setor. A natureza de código aberto da pesquisa em IA torna isso ainda mais provável.

Para dar um exemplo, em 2018 os pesquisadores da Universidade de Albany publicaram uma análise mostrando que as irregularidades no brilho costumavam ser um sinal revelador de que um vídeo era falso. Foi um avanço útil –até que, em meses, começaram a surgir novos vídeos que corrigiam essa imperfeição.

“Estamos desarmados”, disse Farid. “O número de pessoas que trabalham no lado da síntese de vídeo, em oposição ao lado do detector, é de 100 a 1.”

O caminho a seguir

Olhando além das soluções puramente tecnológicas, que medidas legislativas, políticas e sociais podemos tomar para nos defendermos dos perigos das deepfakes?

Uma solução simples e tentadora é aprovar leis que tornam ilegal a criação ou disseminação desses vídeos. O estado da Califórnia experimentou essa abordagem, promulgando uma lei no ano passado que torna ilegal a criação ou distribuição de falsas acusações de políticos dentro de 60 dias após a eleição. Porém, uma proibição generalizada tem desafios constitucionais e práticos.

A Primeira Emenda da Constituição dos EUA consagra a liberdade de expressão. Qualquer lei que proíba conteúdo online, particularmente conteúdo político, corre o risco de entrar em conflito com essas proteções constitucionais.

“O discurso político desfruta do mais alto nível de proteção sob a lei dos EUA”, disse Jane Kirtley, professora de direito. “O desejo de proteger as pessoas de conteúdos enganosos no período que antecede uma eleição é muito forte e compreensível, mas estou cética de que elas serão capazes de fazer cumprir a lei da Califórnia.”

Além das preocupações constitucionais, as proibições provavelmente serão impraticáveis devido ao anonimato e falta de fronteiras da internet.

Outras estruturas legais existentes que podem ser implementadas para combater as deepfakes incluem direitos autorais, difamação e direito à publicidade. Mas, dada a ampla aplicabilidade da doutrina do uso justo, a utilidade dessas vias legais pode ser limitada.

No curto prazo, a solução mais eficaz pode vir das principais plataformas de tecnologia, como Facebook, Google e Twitter, voluntariamente adotando medidas mais rigorosas para limitar a disseminação de deepfakes prejudiciais.

Contar com empresas privadas para resolver amplos problemas políticos e sociais compreensivelmente deixa muitos profundamente desconfortáveis. No entanto, como afirmam os juristas Bobby Chesney e Danielle Citron, os contratos de termos de serviço dessas plataformas tecnológicas são “os documentos mais importantes que governam a fala digital no mundo de hoje”. Como resultado, as políticas de conteúdo dessas empresas podem ser “o mecanismo de resposta mais saliente de todos” às deepfakes.

Uma opção legislativa relacionada é alterar a polêmica Seção 230 da Lei de Decência das Comunicações. Escrita no princípio da internet comercial, a Seção 230 oferece às empresas de internet quase completa imunidade civil para qualquer conteúdo postado em suas plataformas por terceiros. Voltar essas proteções tornaria companhias como o Facebook legalmente responsáveis ​​por limitar a propagação de conteúdo prejudicial em seus sites. Mas essa abordagem levanta preocupações complexas de liberdade de expressão e censura.

No final, nenhuma solução será suficiente. Um primeiro passo essencial é simplesmente aumentar a conscientização do público sobre as possibilidades e os perigos das deepfakes. Um cidadão informado é uma defesa crucial contra desinformação generalizada.

O recente aumento de fake news levou a temores de que estamos entrando no mundo “pós-verdade”. Deepfakes ameaçam intensificar e acelerar essa trajetória. O próximo capítulo importante desse drama provavelmente está chegando: as eleições de 2020. Os riscos dificilmente poderiam ser maiores.

“O homem na frente do tanque na praça Tiananmen mudou o mundo”, disse Nasir Memon, professor da Universidade de Nova York. “Nixon ao telefone custou a presidência. Imagens de horror dos campos de concentração finalmente nos levaram à ação. Se a noção de não acreditar no que você vê está sob ataque, isso é um grande problema. É preciso restaurar a verdade para enxergar com clareza novamente.”


Fonte: Forbes

Estudo controverso sobre Covid-19

Já fizemos diversas postagens sobre retratação em pesquisa científica. Recentemente até na área contábil, no prestigioso The Accounting Review. Isto é algo comum na pesquisa científica. Mas o caso da The Lancet parece bastante grave.

Este periódico foi criado há quase duzentos anos (foto ao lado) e tem publicado pesquisas na área médica. Este periódico já fez besteira no passado, sendo que o estudo ligando o autismo com vacina foi talvez seu pior erro.

No dia 22 de maio, o The Lancet publicou um artigo sobre a Hidroxicloroquina e o tratamento do Covid-19. O artigo fez um revisão de quase cem mil pacientes de 671 hospitais, entre final de dezembro e abril. Com base neste artigo, a OMS decidiu interromper os estudos sobre o uso deste medicamento.

Quatro dias depois da publicação, pesquisadores australianos descobriram um erro nas mortes registradas no país. Doi dias depois, 180 pesquisadores de vários países escreveram ao editor sobre o artigo. No dia seguinte, o The Lancet publicou uma revisão com correções, sem alterar os resultados. Ontem, o The Lancet publicou uma “preocupação” sobre o trabalho e afirmou que fará uma auditoria sobre o mesmo. A própria OMS reviu sua posição sobre o tema. O artigo está sendo colocado em dúvida pela comunidade.

Há muitos indícios os dados usados são de baixa qualidade (ou foram inventados). Há problemas de análise estatística dos dados.

(Grato Alexandre Alcântara que chamou a atenção para o tema)

(A contabilidade pode aprender muito com casos como este; afinal, trata-se de uma fraude e isto é de nosso interesse)

Rir é o melhor remédio

Cola e ensino em tempos de Covid

02 junho 2020

Intervenção do Governo Chinês no Mercado Financeiro

Resumo:

China's economic model involves active government intervention in financial markets. We develop a theoretical framework in which interventions prevent a market breakdown and a volatility explosion caused by the reluctance of short-term investors to trade against noise traders. In the presence of information frictions, the government can alter market dynamics since the noise in its intervention program becomes an additional factor driving asset prices. More importantly, this may divert investor attention away from fundamentals and totally toward government interventions (as a result of complementarity in investors' information acquisition). A trade-off arises: government's objective to reduce asset price volatility may worsen, rather than improve, information efficiency of asset prices

China's Model of Managing the Financial SystemMarkus K. Brunnermeier, Michael Sockin, and Wei XiongNBER Working Paper No. 27171May 2020JEL No. G01,G14,G28

Onde estamos

Usando dados de localização dos celulares, o gráfico mostra onde estávamos (ou estamos) desde o início da pandemia.
O gráfico é interativo e pode ser obtido por país. A figura acima é do Brasil

Impacto na ciência

Três mil pesquisadores responderam um questionário sobre a situação da ciência. Brasileiros foram  127, sendo que a maioria respondeu a opção "lockdown". Depois do Reino Unido, é o país mais afetado pelo Covid.

Simpósio



Rir é o melhor remédio

Fofoca em tempos de Covid

01 junho 2020

Ligação entre partes do Balanço - 2


Para entender qual seria a melhor alternativa, sob a ótica do usuário, três pesquisadores conduziram um experimento, onde as três alternativas de divulgação de itens com ligação entre si no balanço, poderiam ser consideradas. O experimento neste caso permite que seja possível ao pesquisador analisar de perto algo, simulando uma situação real.

Em um artigo do Journal of Accounting and Economics, Lisa Koonce, Zheng Leitter e Brian White verificaram como a apresentação de informações que estão ligadas no balanço pode afetar a capacidade do usuário de analisar as informações. Os autores usaram as três possibilidades de apresentação em dois experimentos. No primeiro, somente a segunda forma, onde a ligação era apresentada, é que os usuários conseguiram perceber mais claramente uma operação de hedge. No segundo experimento, em um contexto de empréstimo, novamente a opção segunda permite uma percepção mais adequada do risco envolvido na operação.

Lisa Koonce, Zheng Leitter e Brian White. Linked balance sheet presentation. Journal of Accounting and Economics.

Ligação entre as partes do balanço

Quando um evento acontece em uma entidade, as contas que o representam estão vinculadas através do débito e do crédito. Esta vinculação pode ser provisória, mas em vários casos pode continuar existindo ao longo do tempo. Uma aquisição de material de consumo, que será usado no próximo mês, deve produzir um débito de material de consumo e um crédito da conta bancos da entidade. Esta ligação é tênue e logo depois o ativo será consumido nas atividades da empresa.

Mas o mesmo não ocorre com uma compra de um terrno através de um financiamento. O vínculo entre o débito (Terrenos) e o crédito (Financiamento) irá persistir por meses ou anos. O usuário que olhar o balanço pode não perceber a ligação entre este ativo não circulante e o passivo. Mas este vínculo pode ser importante no estudo da imobilização e da estrutura de financiamento da entidade.

Quando duas contas estão vinculadas, o balanço pode não conseguir mostrar, de forma adequada esta ligação. Em termos contábeis, o vínculo entre duas contas pode ser expresso de três maneiras diferentes. A primeira opção é simplesmente não mostrar esta ligação. Este é o caso da compra de um terreno, através de um financiamento, por parte da empresa. Neste caso, tem-se um ativo, registrado no longo prazo, e um passivo, o financiamento. Para o usuário, esta ligação pode não ser fácil de ser percebida, mesmo quando existe uma nota explicativa detalhando a operação.

A segunda forma de mostrar o vínculo entre duas contas é colocando-as junto, de modo que a ligação fique nítida no próprio balanço. No caso da máquina, poderíamos imaginar a seguinte apresentação:

Terrenos 100
- Financiamentos (70)

Isto parece estranho e deslocado da contabilidade como nós praticamos. Mas se o leitor considerar como exemplo a venda de recebíveis por parte da empresa, é possível considerar o ativo de Valores a Receber e deste sendo subtraído o montante que foi entregue na operação:

Valores a Receber 40
- Desconto (25)

Ao mostrar o ativo desta forma, saberemos que parte do volume de valores a receber da empresa foi descontado. Veja que esta apresentação pareceu natural quando usamos este exemplo.

A terceira maneira de mostrar este vínculo é fazer a apresentação líquida dos valores, sem detalhar cada um dos itens. Assim, considere o caso de valores a receber. Em lugar da apresentação sugerida anteriormente, a contabilidade pode optar por apresentar da seguinte forma:

Valores a Receber 15

E, eventualmente, detalhando a composição de Valores a Receber em notas explicativas.

Qual deveria ser a escolha contábil? Sabemos que na prática, é possível usar a primeira forma (separada, como fazemos com a compra de terreno financiada), a segunda (valores a receber e a operação de desconto) ou a terceira (valores a receber, pelo montante líquido). Para responder a esta questão, talvez fosse interessante olhar para o usuário, que o “cliente final” da contabilidade. Qual das três opções seria a melhor? Se o objetivo é mostrar da melhor forma possível a situação da empresa, seria interessante verificar com qual das três situações o entendimento seria melhor para o usuário. A opção de separar as contas parece, a priori, reduzir a chance que o usuário possa ver a ligação entre as contas. Na realidade, quanto mais próxima estiver os grupos que possuem ligação, mais fácil será a capacidade do usuário de perceber o vínculo entre as contas. Assim, a opção de reduzir de terrenos o financiamento vinculado não deve ser descartado, somente pelo fato de ser “estranho”.

Outros aspectos também devem ser considerados. A relevância da informação é algo importante aqui. De qualquer forma, as três possibilidades de apresentar duas contas que estão vinculadas precisam ser consideradas na apresentação do balanço de uma entidade. Para o normatizador, esta é uma questão importante na definição da evidenciação de situações como hedge, impostos, receitas etc.

Veja o caso dos impostos. Uma empresa pode ter impostos a pagar ou impostos diferidos. No primeiro caso, temos um passivo; no segundo, um ativo. Considerando a primeira opção, em evidenciar de forma separada, os dois serão apresentados no balanço. No segundo caso, seria possível colocar um subtraindo o outro. Ou então, como terceira opção, somente considerar o valor líquido, seja ele a pagar ou diferido.

Seminário

O Congresso da UnB está organizando um conjunto de palestras. A primeira foi na semana passada. Esta é a segunda palestra. A inscrição pode ser feita no site da Enap até quarta.

Auditoria em tempos de Covid

Um documento do IAASB comenta sobre o relatório do auditor diante do atual ambiente do Covid-19. Destaco o seguinte trecho:

Nas atuais circunstâncias, as divulgações assumem uma importância cada vez maior. Os usuários esperam maior transparência por meio de divulgações relacionadas aos efeitos materiais da pandemia do Covid-19. Essas divulgações podem abordar o impacto da volatilidade do mercado financeiro, problemas de deterioração do crédito ou da liquidez, intervenções do governo (como subsídios do governo) e mudanças decorrentes de reduções na produção e reestruturação, entre outros assuntos.

Foto: Aqui

Fake News

Por que notícias falsas se espalham tão rapidamente nos dias atuais? Eis uma resposta interessante:

Os pesquisadores monitoram o fluxo de informações on-line há anos e têm uma boa noção de como os rumores não confiáveis começam e se espalham. Nos últimos 15 anos, a tecnologia e as normas sociais em constante mudança removeram muitos dos filtros que foram colocados em informações, diz Amil Khan, diretor da agência de comunicações Valent Projects em Londres, que trabalhou na análise de informações erradas para o governo do Reino Unido. Os rumoreiros que poderiam ter sido isolados em suas comunidades locais podem se conectar com céticos com ideias semelhantes em qualquer lugar do mundo. As plataformas de mídia social que eles usam são executadas para maximizar o envolvimento do usuário, em vez de favorecer informações baseadas em evidências. Como essas plataformas explodiram em popularidade na última década e meia, também cresceram o partidarismo político e as vozes que desconfiam das autoridades.

Se antigamente uma comunidade poderia isolar uma pessoa fofoqueira e mentirosa, nos dias atuais isto é muito difícil. Imagine um grupo de Whatsupp com cem pessoas; a identificação de um membro que espalha constantemente notícias falsas é mais difícil, assim como a exclusão do grupo. Mais ainda:

Para agravar:

Um estudo em 2018 sugeriu que as notícias falsas geralmente viajam mais rápido do que as notícias confiáveis no Twitter. 

O gráfico mostra a correção de notícias falsas relacionadas com o Covid ao longo do tempo: 
Sendo a contabilidade um fonte que busca produzir informações confiáveis sobre uma entidade, a perspectiva de utilização errônea ou uma interpretação inadequada precisa ser considerada pelos reguladores.

Hipótese dos Mercados Inelásticos

Xavier Gabaix, professor de Economia de Harvard, propõe uma nova teoria para explicar a razão dos mercados financeiros serem tão voláteis: a Hipótese dos Mercados Inelásticos (IMH)


Rir é o melhor remédio


31 maio 2020

Yesterday

O filme Yesterday, de 2019, é bem interessante. Narra um músico que se descobre em um mundo que não conhece a música dos Beatles. O filme fez uma boa bilheteria, obtendo 153 milhões de dólares. Sendo um filme com um custo de produção reduzido, estimou-se um lucro de 45 milhões.

Mas as informações do estúdio indicam que o filme teve um prejuízo de 88 milhões. E neste caso, o estúdio carrega nas despesas e subestima as receitas, conforme informa o site Deadline.

(Este site lembra um caso similar, do filme Harry Potter e a Ordem de Fênix, que teve uma bilheteria de 942 milhões e gerou um prejuízo de 167 milhões).

A partir dos números divulgados, o site Deadline faz as seguintes contas:

Prejuízo Líquido apurado = 87,7 milhões
Despesa de distribuição a mais = 22,89 milhões
Crédito fiscal não reconhecido = 15,3 milhões
Receita de vídeo futura = 8 milhões
Receita de Televisão ainda não reconhecida = 68 milhões
Novo Resultado = 26,49 milhões 

Bem diferente do mundo contábil da Universal

30 maio 2020

Menos pesquisas

O gráfico mostra que o número de pesquisas com mulheres que foram submetidas diminuiu com a pandemia. Culpa da jornada de trabalho em casa?

Custo e SpaceX

A SpaceX é um caso muito interessante como é possível, através da análise dos processos e do estudo profundo do know how reduzir os custos de um produto ou empresa. Enquanto um voo de um ônibus espacial custou 1,6 bilhão de US$, a SpaceX deve sair por US$ 55 milhões. Isto é bem abaixo do que atualmente a Nasa paga aos russos para mandar um tripulante ao espaço: US$85 milhões.

Sobre isto, novamente recomendamos a leitura desta postagem.

Boas informações

A pandemia tem ensinado (ou deveria estar ensinando) o valor da boa informação.John Kay resume isto da seguinte forma:

The value of models in these areas is as a means of organising thought, not of making predictions. And quantitative models are only as good as the information that is fed into them. The greatest scandal of this epidemic is the delay in undertaking widespread testing. Even though the random testing now being undertaken sounds wasteful it would have yielded invaluable data if it had commenced much earlier. The cost of obtaining good economic and epidemiological information is trivial relative to the costs of bad policy made in its absence.

É o velho adágio: "lixo entra, lixo sai". Ou, conforme Dilbert:
Até hoje não sabemos, no Brasil (e talvez na Inglaterra de Kay) qual o resultado de uma testagem aleatória. Desde março o biológo Fernando Reinach chama a atenção para necessidade de testar, testar e testar. 

Rir é o melhor remédio

Matemática como uma criança // Matemática como adulto