Translate

03 dezembro 2018

Quanto vale?

O castelo acima, localizado na Baixa Saxônia, foi vendido recentemente. O Príncipe Ernst August de Hanover, herdeiro do castelo, decidiu pela venda. Duas perguntas: (1) quanto você acha que vale este castelo? (2) O que motivou a venda?

Resposta nos comentários do blog.

Vítima

Um artigo publicado na revista Época, o jornalista Helio Gurovitz faz o seguinte comentário:

[A Petrobras] Sempre se apresentou ao mercado como vítima da corrupção, papel que serviu para condenar executivos e políticos na Justiça, mas nunca convenceu quem conhecia o esquema de perto

Depois de analisar o acordo de leniência feito nos Estados Unidos, Gurovitz afirma que a empresa "nada tem de vítima", já que assumiu os crimes dos executivos.

Em 2014 já postamos sobre isto. E um análise das demonstrações de 2016 afirmamos:

Obviamente que a empresa atrai a atenção pelos problemas de corrupção dos últimos anos. É interessante que a área responsável pelas demonstrações contábeis usa o espaço para reescrever a história. Por seis vezes a palavra “vítima” aparece nas informações contábeis

Fonte da imagem: aqui

Resenha: The Tyranny of Metrics - Jerry Muller

Este pequeno livro (220 páginas), lançado em 2018, é uma tentativa de combater o excesso de métricas. Para os contadores, o tema é polêmico, já que aprendemos a máxima de que só podemos administrar aquilo que podemos mensurar. Muller, em 16 breves capítulos, mostra como as métricas tornaram tão populares que o seu papel foi invertido: em lugar de ser um meio, tornou-se um fim. Para ele, a fixação pelas métricas termina por não trabalhar tão bem assim. Na área acadêmica, o zelo pela métrica fez nascer e florescer a pesquisa salame, onde uma pesquisa é fatiada para render mais publicações. A métrica, o número de artigos publicados por um pesquisador, induz o comportamento do pesquisador, que procura render ao máximo suas pesquisas.

Neste sentido, surgiu, em 1975, a chamada Lei de Campbell. Em resumo a lei indica que quanto mais uma métrica é usada para decisão, mais sujeita estará a pressão para ser corrompida e, por consequência, mais distante estará do processo que deseja medir. Se o número de artigos pretende medir a produtividade de um pesquisador, fatie a pesquisa em três ou mais artigos. Se for o número de citações, desenvolva um círculo de amigos para citá-lo ou obrigue os alunos a fazê-lo.

O excesso das métricas incentiva o curto prazo, premia a sorte, desencoraja a tomada de risco, desestimula a cooperação, entre outras mazelas. Particularmente o que eu achei mais interessante na crítica de Muller foi sua ojeriza pela accountability. O “dever de prestar contas” e a associação com a transparência é duramente criticada por Muller, que exalta que a transparência é inimiga da política, diplomacia, do casamento ... Segundo o autor, as virtudes da accountability são exageradas e seus custos são subestimados. Não me lembro de um autor que tenha sido tão crítico da accountability. Para refletir, sem dúvida.

Vale a Pena? Apesar de ser um livro de rápida leitura (as duzentas páginas estão em um formato de livro de bolso) e ter alguns argumentos interessantes, eu achei que o livro não consegue convencer o leitor com argumentos comprováveis. De certa forma, sei que Muller tem sua razão, mas em um mundo dominado pela métrica, não sei se seria possível ter outra alternativa.

MULLER, Jerry. The Tyranny of Metrics. Princeton, 2018.

Rir é o melhor remédio

Quando o herói tem um bebê (continuação)


Martin Act versus Exxon

Uma lei chamada de Martin Act está sendo usada contra a Exxon no caso do aquecimento global. Esta lei foi aprovada em 1921, antes da crise de 1929, e é considerada uma das leis mais severas dos Estados Unidos contra a fraude. A lei, que abrange a cidade de Nova Iorque, foi pouco usada até o início do século, quando o advogado Elliot Spitzer utilizou contra empresas de Wall Street. Desde então, tem sido a base de muitos casos, incluindo uma investigação contra a Merril Lynch.

A Martin Act tem sido considerada como injusta, pois favorece os promotores nas investigações de práticas fraudulentas. Agora a lei está sendo usada contra a empresa de petróleo Exxon e no caso do reconhecimento contábil dos efeitos do aquecimento global. A empresa evita reconhecer o impacto que este ponto pode ocasionar sobre os seus ativos. Por exemplo, se no futuro a questão do aquecimento ficar muito mais grave do que nos dias de hoje, provavelmente haverá sérias restrições ao uso de combustível fóssil na sociedade. Isto demandaria uma revisão no valor das suas reservas, para incluir a probabilidade nas estimativas do valor dos seus ativos. A Exxon não faz isto. Mais ainda, a empresa já foi acusada de patrocinar grupos contrários as políticas em defesa do meio-ambiente.

No início dos anos 2000, quando Spitzer usou o Martin Act contra a Merril Lynch, o valor de mercado da empresa caiu em 5 bilhões em uma semana. E no final a empresa concordou em pagar 100 milhões de dólares por um acordo. O poder da lei é tamanho que, segundo o NY Times, a Exxon deverá ter dificuldade de se defender com sucesso.

Para ler sobre a questão da mensuração, recomendamos esta postagem. Mais aqui e aqui

02 dezembro 2018

P. S. Amigo Secreto dos Blogs de Contabilidade

Sobre o amigo secreto dos blogs de contabilidade, conforme o link: aqui.

Caso você seja um blogueiro contábil e queira participar no ano que vem, por favor nos envie um e-mail! contabilidadefinanceira@gmail.com

Deve ser um blog contábil, não comercial, que tenha sido atualizado no ano da brincadeira e seja de um contador, ou profissional envolvido com a área. Então, por exemplo, para o próximo amigo secreto é necessário que haja publicações em 2019 no blog do interessado.

Ainda, há um site criado pelo Alexandre, e no qual auxilio, com diversos blogs de contabilidade. Caso o seu não esteja lá listado, envie um e-mail para indicablog@gmail.com. Só serão divulgados blogs que tenham clara identificação do nome e e-mail de contato do responsável no próprio site.

Amigo Secreto: Dicas de quem eu tirei [Isabel]

Já estamos na primeira semana de dezembro e o espírito natalino paira no ar. Assisti a alguns filmes, montei a árvore e cansei o meu som com as músicas de natal, mas ainda estou encalhada quanto ao presente do meu amigo oculto.

Nós estamos no meio do nosso terceiro amigo secreto dos blogs de contabilidade (2013 e 2017). Nos anos passados tirei a querida amiga Claudinha, do Ideias Contábeis, e foi maravilhoso. O meu dilema era escolher uma dentre as tantas coisas com as quais a queria presentear.

(Curiosamente, houve um certo clube da Luluzinha nos anos anteriores. Foi Polyana -> Isabel -> Cláudia em 2017 e Isabel -> Cláudia -> Polyana em 2013. O Felipe estava alegando indícios fraude...!!! rsrsrs)

Este ano tirei alguém com quem tenho menos contato... É, inclusive, um blogueiro que não conheço pessoalmente, mas por quem tenho muito respeito e carinho.

Sabe qual é a parte mais legal? É alguém que conheci por causa desta brincadeira, o que só ressalta o quão especial ela é.

Com essas dicas ficou fácil, então não vou falar muito mais para não entregar tudo de uma só vez.
Mas lá vou eu, stalkear o meu amigo para ter inspiração para o presente.

Balanço da Lava-jato

Durante o Congresso da UnB foi apresentado um balanço atual da operação lava-jato. Os números são impressionantes:

Valor total do ressarcimento solicitado (incluindo multas) = 39,9 bilhões de reais
Crimes já denunciados envolvem propinas = 6,4 bilhões de reais
Bens dos réus bloqueados = 3,2 bilhões de reais
Acusações criminais = 82
Número de pessoas envolvidas = 347
Pessoas já sentenciadas = 46
Número de condenações = 215 contra 140 pessoas
Soma das penas = 2036 anos

Grandes Limitações da Inteligência Artificial

[...]

As someone who has worked in A.I. for decades, I’ve witnessed the failure of similar predictions of imminent human-level A.I., and I’m certain these latest forecasts will fall short as well. The challenge of creating humanlike intelligence in machines remains greatly underestimated. Today’s A.I. systems sorely lack the essence of human intelligence: understanding the situations we experience, being able to grasp their meaning. The mathematician and philosopher Gian-Carlo Rota famously asked, “I wonder whether or when A.I. will ever crash the barrier of meaning.” To me, this is still the most important question.



The lack of humanlike understanding in machines is underscored by recent cracks that have appeared in the foundations of modern A.I. While today’s programs are much more impressive than the systems we had 20 or 30 years ago, a series of research studies have shown that deep-learning systems can be unreliable in decidedly unhumanlike ways.

Programs that “read” documents and answer questions about them can easily be fooled into giving wrong answers when short, irrelevant snippets of text are appended to the document. Similarly, programs that recognize faces and objects, lauded as a major triumph of deep learning, can fail dramatically when their input is modified even in modest ways by certain types of lighting, image filtering and other alterations that do not affect humans’ recognition abilities in the slightest.
One recent study showed that adding small amounts of “noise” to a face image can seriously harm the performance of state-of-the-art face-recognition programs. Another study, humorously called “The Elephant in the Room,” showed that inserting a small image of an out-of-place object, such as an elephant, in the corner of a living-room image strangely caused deep-learning vision programs to suddenly misclassify other objects in the image.

[...]

These are only a few examples demonstrating that the best A.I. programs can be unreliable when faced with situations that differ, even to a small degree, from what they have been trained on. The errors made by such systems range from harmless and humorous to potentially disastrous: imagine, for example, an airport security system that won’t let you board your flight because your face is confused with that of a criminal, or a self-driving car that, because of unusual lighting conditions, fails to notice that you are about to cross the street.
Even more worrisome are recent demonstrations of the vulnerability of A.I. systems to so-called adversarial examples. In these, a malevolent hacker can make specific changes to images, sound waves or text documents that while imperceptible or irrelevant to humans will cause a program to make potentially catastrophic errors.
The possibility of such attacks has been demonstrated in nearly every application domain of A.I., including computer vision, medical image processing, speech recognition and language processing. Numerous studies have demonstrated the ease with which hackers could, in principle, fool face- and object-recognition systems with specific minuscule changes to images, put inconspicuous stickers on a stop sign to make a self-driving car’s vision system mistake it for a yield sign or modify an audio signal so that it sounds like background music to a human but instructs a Siri or Alexa system to perform a silent command.

These potential vulnerabilities illustrate the ways in which current progress in A.I. is stymied by the barrier of meaning. Anyone who works with A.I. systems knows that behind the facade of humanlike visual abilities, linguistic fluency and game-playing prowess, these programs do not — in any humanlike way — understand the inputs they process or the outputs they produce. The lack of such understanding renders these programs susceptible to unexpected errors and undetectable attacks.
What would be required to surmount this barrier, to give machines the ability to more deeply understand the situations they face, rather than have them rely on shallow features? To find the answer, we need to look to the study of human cognition. 

Our own understanding of the situations we encounter is grounded in broad, intuitive “common-sense knowledge” about how the world works, and about the goals, motivations and likely behavior of other living creatures, particularly other humans. Additionally, our understanding of the world relies on our core abilities to generalize what we know, to form abstract concepts, and to make analogiesin short, to flexibly adapt our concepts to new situations. Researchers have been experimenting for decades with methods for imbuing A.I. systems with intuitive common sense and robust humanlike generalization abilities, but there has been little progress in this very difficult endeavor.
A.I. programs that lack common sense and other key aspects of human understanding are increasingly being deployed for real-world applications. While some people are worried about “superintelligent” A.I., the most dangerous aspect of A.I. systems is that we will trust them too much and give them too much autonomy while not being fully aware of their limitations. As the A.I. researcher Pedro Domingos noted in his book “The Master Algorithm,” “People worry that computers will get too smart and take over the world, but the real problem is that they’re too stupid and they’ve already taken over the world.”

Fonte: aqui

Rir é o melhor remédio


Fonte: Aqui