Translate

20 março 2013

Tempo de deslocamento casa-trabalho

Eis um estudo do Ipea sobre o tempo de deslocamento casa- trabalho no Brasil no período de 1992 e 2009. Primeiro, a sinopse da pesquisa, alguns gráficos e, em seguida, uma reportagem da Folha que cita o mesmo estudo do Ipea.


Este texto tem como objetivo analisar o tempo que a população gasta em deslocamentos  urbanos casa-trabalho no Brasil no período compreendido entre 1992 e 2009. A análise  enfatiza as diferenças encontradas entre as nove maiores regiões metropolitanas (RMs)  do país mais o Distrito Federal (DF), além de destacar como estas diferenças variam de  acordo com níveis de renda e sexo. O estudo se baseia nos dados da Pesquisa Nacional  por Amostra de Domícilios (PNAD), gerados pelo Instituto Brasileiro de Geografia  e Estatística (IBGE), uma fonte de dados até hoje pouco explorada em estudos sobre
transporte urbano no Brasil. A PNAD não é uma pesquisa desenhada com o propósito  de investigar a fundo o tema do transporte urbano; no entanto, esta é a única pesquisa  amostral de larga escala feita no país com informações sobre o tempo de deslocamento  casa-trabalho disponíveis anualmente – desde 1992 – tanto para o nível nacional quanto para o subnacional (estados e regiões metropolitanas). Destacam-se cinco principais  resultados: 

i) o tempo de deslocamento casa-trabalho, que no ano de 2009 era 31% maior nas RMs de São Paulo e Rio de Janeiro se comparado às demais RMs;

ii) os trabalhadores de baixa renda (1o  decil de renda) fazem viagens, em média, 20% mais longas  do que os mais ricos (10o  decil), e 19% dos mais pobres gastam mais de uma hora de  viagem contra apenas 11% dos mais ricos; 

iii) esta diferença de tempo de viagem entre  ricos e pobres varia entre as RMs, sendo muito maior em Belo Horizonte, Curitiba e  no DF, e quase nula em Salvador, Recife, Fortaleza e Belém; 

iv) os dados apontam para  uma tendência de piora nas condições de transporte urbano desde 1992, aumentando os
tempos de deslocamento casa-trabalho; no entanto, esta piora tem sido mais intensa entre as pessoas do 1o
 decil de renda e especialmente entre a população mais rica (entre 7o e 10o decil), diminuindo as diferenças de tempo de viagem entre faixas de renda no período analisado; e

v) a diferença do tempo médio gasto nos deslocamentos casa-trabalho entre homens e mulheres diminuiu consideravelmente desde 1992, com pequenas diferenças ainda presentes nos grupos extremos de renda. Observa-se neste trabalho que as tendências observadas no Brasil não seguem necessariamente aquelas observadas em  países desenvolvidos. Destaca-se também que análises que se concentram nas tendências nacionais tendem a ocultar importantes diferenças regionais. Sob uma perspectiva de política pública, este texto aponta o potencial de utilização dos dados da PNAD para o monitoramento das condições de mobilidade nas principais regiões metropolitanas do Brasil, uma vez que as variações anuais nos tempos de viagem casa-trabalho podem  contribuir para a avaliação dos efeitos de determinadas políticas e investimentos sobre as condições de transporte.



Moradores das metrópoles brasileiras enfrentam trajetos de casa para o trabalho entre os mais demorados do mundo -e, na maior parte dos casos, em tendência de piora.
Estudo do Ipea (Instituto de Pesquisa Econômica Aplicada) constata que a Grande São Paulo passou a ter o trajeto mais demorado do país, ultrapassando a região metropolitana do Rio de Janeiro.

Em média, paulistanos e seus vizinhos gastam 42,8 minutos no deslocamento para o trabalho, excluídos da conta residentes em áreas rurais e empregados no setor agrícola ou em serviços noturnos. No Rio, são 42,6 minutos.

A diferença é pequena, mas a distinção das evoluções é visível: no Rio, os números são ligeiramente menores que os do início dos anos 90; em São Paulo, a tendência de aumento é clara. O número engloba transporte público e particular.

Em outras sete metrópoles analisadas e no Distrito Federal, a demora é bem menor, mas em geral crescente -a única exceção é Porto Alegre.

Fonte: aqui

10 regras de investimento de Bob Farrell


One of the most relevant lists of rules, from a legendary Wall Street veteran, is also among the least known. Beginning in the late 1950s, Bob Farrell pioneered technical analysis, which rates a stock not only on a company's financial strength or business line but also on the strong patterns and line charts reflected in the shares' trading history. Farrell also broke new ground using investor sentiment figures to better understand how markets and individual stocks might move.
Over several decades at brokerage giant Merrill Lynch & Co., Farrell had a front-row seat to the go-go markets of the late 1960s, mid-1980s and late 1990s, the brutal bear market of 1973-74, and October 1987's crash. Out of those and other experiences came Farrell's 10 "Market Rules to Remember."
These days, Farrell lives in Florida, and efforts to contact him were unsuccessful. Still, the following rules he advocated resonate during volatile markets such as this:


1. Markets tend to return to the mean over time

When stocks go too far in one direction, they come back. Euphoria and pessimism can cloud people’s heads. It’s easy to get caught up in the heat of the moment and lose perspective.

2. Excesses in one direction will lead to an opposite excess in the other direction

Think of the market baseline as attached to a rubber string. Any action to far in one direction not only brings you back to the baseline, but leads to an overshoot in the opposite direction.
3. There are no new eras — excesses are never permanent

Whatever the latest hot sector is, it eventually overheats, mean reverts, and then overshoots. Look at how far the emerging markets and BRIC nations ran over the past 6 years, only to get cut in half.
As the fever builds, a chorus of "this time it’s different" will be heard, even if those exact words are never used. And of course, it — Human Nature — never is different.

4. Exponential rapidly rising or falling markets usually go further than you think, but they do not correct by going sideways

Regardless of how hot a sector is, don’t expect a plateau to work off the excesses. Profits are locked in by selling, and that invariably leads to a significant correction — eventually.  comes.

5. The public buys the most at the top and the least at the bottom

That’s why contrarian-minded investors can make good money if they follow the sentiment indicators and have good timing.
Watch Investors Intelligence (measuring the mood of more than 100 investment newsletter writers) and the American Association of Individual Investors survey.

6. Fear and greed are stronger than long-term resolve

Investors can be their own worst enemy, particularly when emotions take hold. Gains "make us exuberant; they enhance well-being and promote optimism," says Santa Clara University finance professor  Meir Statman. His studies of investor behavior show that "Losses bring sadness, disgust, fear, regret. Fear increases the sense of risk and some react by shunning stocks."

7. Markets are strongest when they are broad and weakest when they narrow to a handful of blue-chip names

Hence, why breadth and volume are so important. Think of it as strength in numbers. Broad momentum is hard to stop, Farrell observes. Watch for when momentum channels into a small number of stocks ("Nifty 50" stocks).

8. Bear markets have three stages — sharp down, reflexive rebound and a drawn-out fundamental downtrend

I would suggest that as of August 2008, we are on our third reflexive rebound — the Januuary rate cuts, the Bear Stearns low in March, and now the Fannie/Freddie rescue lows of July. 
Even with these sporadic rallies end, we have yet to see the  long drawn out fundamental portion of the Bear Market.

9. When all the experts and forecasts agree — something else is going to happen

As Stovall, the S&P investment strategist, puts it: "If everybody’s optimistic, who is left to buy? If everybody’s pessimistic, who’s left to sell?"
Going against the herd as Farrell repeatedly suggests can be very profitable, especially for patient buyers who raise cash from frothy markets and reinvest it when sentiment is darkest.

10. Bull markets are more fun than bear markets

Especially if you are long only or mandated to be full invested. Those with more flexible charters might squeek out a smile or two here and there.

Fonte: aqui

19 março 2013

Rir é o melhor remédio





Fonte: Aqui

Comportamento e línguas

Inúmeras pesquisas comprovaram que o comportamento das pessoas é afetado por diversas variáveis. Uma pesquisa recente mostrou que a língua também tem seu papel em decisões como economizar, fazer exercícios, fumar e usar camisinha. No início do mês postamos um vídeo do TED talks sobre Keith Chen. Falemos mais sobre o assunto...

Keith Chen, da Universidade de Yale, nos Estados Unidos, investigou como as diferentes línguas fazem distinção entre eventos presentes e futuros. Enquanto no inglês, ao se mencionar uma chuva amanhã, você diz “It will rain tomorrow”, no alemão a mesma frase é “morgen regnet” (algo como 'chuva amanhã'). Há diferença entre as duas formas. O inglês exige, para compor a frase, o uso do verbo “will”, que indica que a ação irá ocorrer no futuro. Assim, a distinção entre o evento no futuro é mais forte na língua inglesa que na alemã.

Chen se questionou se esta distinção, que ocorre entre várias línguas, pode influenciar as chamadas “escolhas intertemporais”. Estas escolhas estão presentes na vida diária de cada um de nós: a escolha, por exemplo, de assistir televisão ao invés de fazer exercício físico numa manhã de terça-feira. Quando eu decido fazer uma atividade mais saudável, a opção terá diversos reflexos no futuro.

O estudo partiu da suposição que quando a língua faz uma grande distinção entre as ações do presente e do futuro, poderá afetar as escolhas intertemporais. Nas línguas nas quais a distinção entre presente e futuro não é forte, as pessoas seriam mais econômicas? E teriam mais hábitos saudáveis?

Chen encontrou que esta distinção afeta sim muitas decisões. Ele utilizou uma base de dados ampla sobre o comportamento das pessoas em diversos países e relacionou à presença (ou ausência) de uma referência ao tempo futuro (FTR, na abreviatura do autor). A comparação levou em consideração as características idênticas de renda, educação, família, entre outras. Pessoas com fraca FTR, como é o caso dos alemães, são mais econômicos (31% a mais), guardam mais dinheiro para aposentadoria (39% a mais), provavelmente fumam menos (24%), fazem mais atividade física (29% a mais) e são menos propensos a obesidade (13% a menos).

Mesmo em países que usam mais de uma língua, como é o caso da Suíça, a diferença persiste. E os países que possuem fraca FTR economizam, em média, 6% a mais do PIB por ano. Na conclusão da pesquisa, Chen diz acreditar que os resultados encontrados indicam que a língua pode ser a causa, não o reflexo, de algumas das diferenças.

Ao ler o texto fiquei pensando como é importante que pesquisas ousadas sejam realizadas na academia. Para um leigo, seria difícil imaginar a relação entre decisões econômicas e efeito da língua. Mas a criatividade de um pesquisador permitiu que se pudessem entender um pouco melhor escolhas intertemporais.

CHEN, M. Keith. The Effect of Language on Economic Behavior: evidence from savings rates, health behaviors, and retirement assets. American Economic Review, vol. 103, n. 2, 2013 (a ser publicado brevemente). Aqui uma versão preliminar do texto.

Congresso homenageia a contabilidade

Parlamentares e representantes de associações de contadores de todo o país comemoraram o Ano da Contabilidade no Brasil em solenidade promovida pelo Congresso nesta segunda-feira (18). Autor do requerimento de homenagem, o senador João Vicente Claudino destacou que existem, no Brasil, 500 mil profissionais e 400 mil estudantes de contabilidade, além de 80 mil empresas especializadas.

Empresário formado em Economia, João Vicente ressaltou que a contabilidade, prática milenar, é essencial a qualquer negócio, seja na transparência, no controle ou na previsão de gastos e receitas. Na mesma linha manifestou-se o deputado Paes Landim, que mencionou a dependência das grandes empresas, em relação ao trabalho dos profissionais de contabilidade, nas decisões negociais do dia-a-dia. O senador Luiz Henrique afirmou que a contabilidade é "a ciência que organiza o mundo”. De acordo com ele, as grandes crises financeiras mundiais em boa parte resultam de uma falta de responsabilidade fiscal, que começa quando os governantes deixam de ouvir seus contadores.

O contador e deputado Izalci mencionou medida provisória em elaboração, atualmente sob análise do Ministério do Planejamento, que fortalecerá os órgãos setoriais e seccionais do sistema de contabilidade de custos do Poder Executivo federal.

Izalci adiantou que a futura MP trará medidas regulatórias direcionadas à administração pública direta, autárquica e fundacional. Também deverá organizar os servidores públicos formados em contabilidade, melhorando, inclusive, a estrutura remuneratória da categoria.

Ainda, interrompido várias vezes por palmas, Izalci apontou a corrupção e afirmou que "podemos enfrentar a batalha contra a corrupção e temos as armas para vencer esta guerra. Conheço o poder das ferramentas de trabalho que temos e, por isso, reafirmo que a única categoria profissional que pode e deve passar o Brasil a limpo é a dos contabilistas. Os contabilistas podem, e devem, passar este pais a limpo."

Discursaram na sessão os presidentes da Federação Nacional de Contabilidade (Fenacon), Valdir Pietrobon; da Fundação Brasileira de Contabilidade, José Martonio Coelho; da Academia Brasileira de Ciências Contábeis, Maria Clara Bugaim; e do Conselho Federal de Contabilidade, Juarez Domingos Carneiro; entre outros presentes.

Fonte: Adaptado daqui

Quem controla a economia mundial?


 An analysis of the relationships between 43,000 transnational corporations has identified a relatively small group of companies, mainly banks, with disproportionate power over the global economy.
The study's assumptions have attracted some criticism, but complex systems analysts contacted by New Scientist say it is a unique effort to untangle control in the global economy. Pushing the analysis further, they say, could help to identify ways of making global capitalism more stable.
The idea that a few bankers control a large chunk of the global economy might not seem like news to New York's Occupy Wall Street movement and protesters elsewhere . But the study, by a trio of complex systems theorists at the Swiss Federal Institute of Technology in Zurich, is the first to go beyond ideology to empirically identify such a network of power. It combines the mathematics long used to model natural systems with comprehensive corporate data to map ownership among the world's transnational corporations (TNCs).
"Reality is so complex, we must move away from dogma, whether it's conspiracy theories or free-market," says James Glattfelder. "Our analysis is reality-based."
Previous studies have found that a few TNCs own large chunks of the world's economy, but they included only a limited number of companies and omitted indirect ownerships, so could not say how this affected the global economy - whether it made it more or less stable, for instance.
The Zurich team can. From Orbis 2007, a database listing 37 million companies and investors worldwide, they pulled out all 43,060 TNCs and the share ownerships linking them. Then they constructed a model of which companies controlled others through shareholding networks, coupled with each company's operating revenues, to map the structure of economic power.
The work, to be published in PLoS One, revealed a core of 1318 companies with interlocking ownerships (see image). Each of the 1318 had ties to two or more other companies, and on average they were connected to 20. What's more, although they represented 20 per cent of global operating revenues, the 1318 appeared to collectively own through their shares the majority of the world's large blue chip and manufacturing firms - the "real" economy - representing a further 60 per cent of global revenues.
When the team further untangled the web of ownership, it found much of it tracked back to a "super-entity" of 147 even more tightly knit companies - all of their ownership was held by other members of the super-entity - that controlled 40 per cent of the total wealth in the network. "In effect, less than 1 per cent of the companies were able to control 40 per cent of the entire network," says Glattfelder. Most were financial institutions. The top 20 included Barclays Bank, JPMorgan Chase & Co, and The Goldman Sachs Group.
John Driffill of the University of London, a macroeconomics expert, says the value of the analysis is not just to see if a small number of people controls the global economy, but rather its insights into economic stability.
Concentration of power is not good or bad in itself, says the Zurich team, but the core's tight interconnections could be. As the world learned in 2008, such networks are unstable. "If one [company] suffers distress," says Glattfelder, "this propagates."
"It's disconcerting to see how connected things really are," agrees George Sugihara of the Scripps Institution of Oceanography in La Jolla, California, a complex systems expert who has advised Deutsche Bank.
Yaneer Bar-Yam, head of the New England Complex Systems Institute (NECSI), warns that the analysis assumes ownership equates to control, which is not always true. Most company shares are held by fund managers who may or may not control what the companies they part-own actually do. The impact of this on the system's behaviour, he says, requires more analysis.
Crucially, by identifying the architecture of global economic power, the analysis could help make it more stable. By finding the vulnerable aspects of the system, economists can suggest measures to prevent future collapses spreading through the entire economy. Glattfelder says we may need global anti-trust rules, which now exist only at national level, to limit over-connection among TNCs. Sugihara says the analysis suggests one possible solution: firms should be taxed for excess interconnectivity to discourage this risk.
One thing won't chime with some of the protesters' claims: the super-entity is unlikely to be the intentional result of a conspiracy to rule the world. "Such structures are common in nature," says Sugihara.
Newcomers to any network connect preferentially to highly connected members. TNCs buy shares in each other for business reasons, not for world domination. If connectedness clusters, so does wealth, says Dan Braha of NECSI: in similar models, money flows towards the most highly connected members. The Zurich study, says Sugihara, "is strong evidence that simple rules governing TNCs give rise spontaneously to highly connected groups". Or as Braha puts it: "The Occupy Wall Street claim that 1 per cent of people have most of the wealth reflects a logical phase of the self-organising economy."
So, the super-entity may not result from conspiracy. The real question, says the Zurich team, is whether it can exert concerted political power. Driffill feels 147 is too many to sustain collusion. Braha suspects they will compete in the market but act together on common interests. Resisting changes to the network structure may be one such common interest.

The top 50 of the 147 superconnected companies

1. Barclays plc
2. Capital Group Companies Inc
3. FMR Corporation
4. AXA
5. State Street Corporation
6. JP Morgan Chase & Co
7. Legal & General Group plc
8. Vanguard Group Inc
9. UBS AG
10. Merrill Lynch & Co Inc
11. Wellington Management Co LLP
12. Deutsche Bank AG
13. Franklin Resources Inc
14. Credit Suisse Group
15. Walton Enterprises LLC
16. Bank of New York Mellon Corp
17. Natixis
18. Goldman Sachs Group Inc
19. T Rowe Price Group Inc
20. Legg Mason Inc
21. Morgan Stanley
22. Mitsubishi UFJ Financial Group Inc
23. Northern Trust Corporation
24. Société Générale
25. Bank of America Corporation
26. Lloyds TSB Group plc
27. Invesco plc
28. Allianz SE 29. TIAA
30. Old Mutual Public Limited Company
31. Aviva plc
32. Schroders plc
33. Dodge & Cox
34. Lehman Brothers Holdings Inc*
35. Sun Life Financial Inc
36. Standard Life plc
37. CNCE
38. Nomura Holdings Inc
39. The Depository Trust Company
40. Massachusetts Mutual Life Insurance
41. ING Groep NV
42. Brandes Investment Partners LP
43. Unicredito Italiano SPA
44. Deposit Insurance Corporation of Japan
45. Vereniging Aegon
46. BNP Paribas
47. Affiliated Managers Group Inc
48. Resona Holdings Inc
49. Capital Group International Inc
50. China Petrochemical Group Company
* Lehman still existed in the 2007 dataset used
Fonte: aqui


Argentina, lavagem de dinheiro e HSBC

A agência tributária argentina disse nesta segunda-feira [18/03] ter descoberto 392 milhões de pesos (77 milhões de dólares) em transações fraudulentas realizadas pelo HSBC e afirmou que solicitou que o sistema judiciário investigue o banco europeu sob acusação de evasão tributária e lavagem de dinheiro. O HSBC, maior banco europeu, foi multado em 1,9 bilhão de dólares no ano passado devido a irregularidades semelhantes no México e nos Estados Unidos.

A agência tributária AFIP entrou com a queixa em fevereiro devido a supostas irregularidades verificadas ao longo dos últimos três anos, disse o chefe do órgão, Ricardo Echegaray. "Com base no que foi investigado até agora, em seis meses, registramos 392 milhões de pesos em transações fraudulentas geradas por evasão e lavagem de dinheiro", disse Echegaray em coletiva de imprensa.

Echegaray disse que executivos do HSBC adquiriram registros fiscais falsos de negócios locais, possibilitando a realização de transações ilícitas. "Esperamos recuperar o que é devido e ver os tribunais aplicando uma penalidade apropriada", afirmou. Um porta-voz do HSBC recusou-se a comentar sobre o caso.

O presidente-executivo do HSBC, Stuart Gulliver, disse no mês passado que a complexa estrutura e a ampla abrangência geográfica tornam o banco atraente para criminosos. Após assumir a presidência do banco no início de 2011, Gulliver centralizou o controle e criou operações globais de negócios, retirando boa parte do controle das mãos de gestores nacionais.

Fonte: Aqui

Endividamento

Como as decisões de arrendar x comprar são afetadas pela análise de balanços:

Os limites para endividamento da Petrobrás e a urgência de não atrasar a produção de petróleo têm feito a companhia [Petrobras] alugar embarcações no exterior, em vez de construí-las no Brasil dentro de regras de conteúdo local. Estaleiros investindo na retomada do setor naval brasileiro - há mais de uma dezena em construção - reclamam perda de encomendas de barcos de apoio e temem que o mesmo aconteça com sondas e plataformas, equipamentos ainda mais complexos.

(...) Segundo fontes do setor, a Petrobrás já negocia afretar mais duas grandes plataformas flutuantes (alfa e beta, para 120 mil barris de óleo/dia) para o pré-sal da Bacia de Santos com a SBM. Elas seriam realocadas à área da cessão onerosa, onde a Petrobrás poderá explorar até 5 bilhões de barris de petróleo.

Segundo as fontes, a estatal poderia estender a opção pelo afretamento às cinco megaplataformas flutuantes que ainda precisará empregar na área da cessão onerosa. A Petrobrás diz que "não decidiu afretar FPSOs (plataformas ) para utilização na cessão onerosa".

O aluguel é importante diante do limite de alavancagem da Petrobrás, acima do considerado confortável pela própria empresa (2,5 vezes a geração líquida/Ebitda). A zona de conforto só será retomada em 2014. A construção de navios próprios no Brasil entra como endividamento no balanço financeiro. Já no caso de afretamento a despesa não entra como dívida. Se excessivamente elevada, a alavancagem levaria a companhia a perder o grau de investimento por agências de classificação de risco. (...)

Custo final, A estratégia de afretamento também aumenta os gastos finais para a Petrobrás. Cada plataforma flutuante custa cerca de US$ 1,5 bilhão para ser construída. Já no afretamento, o custo final ao longo do período de produção pode dobrar. Porém, não é esta a reclamação da indústria local. E sim o fato de os contratos serem feitos no exterior. (...)


Fonte: Aqui

Interação algoritmos e seres humanos



[...] Although algorithms are growing ever more powerful, fast and precise, the computers themselves are literal-minded, and context and nuance often elude them. Capable as these machines are, they are not always up to deciphering the ambiguity of human language and the mystery of reasoning. Yet these days they are being asked to be more humanlike in what they figure out.
“For all their brilliance, computers can be thick as a brick,” said Tom M. Mitchell, a computer scientist at Carnegie Mellon University.
And so, while programming experts still write the step-by-step instructions of computer code, additional people are needed to make more subtle contributions as the work the computers do has become more involved. People evaluate, edit or correct an algorithm’s work. Or they assemble online databases of knowledge and check and verify them — creating, essentially, a crib sheet the computer can call on for a quick answer. Humans can interpret and tweak information in ways that are understandable to both computers and other humans.
Question-answering technologies like Apple’s Siri and I.B.M.’s Watson rely particularly on the emerging machine-man collaboration. Algorithms alone are not enough.
Twitter uses a far-flung army of contract workers, whom it calls judges, to interpret the meaning and context of search terms that suddenly spike in frequency on the service.
For example, when Mitt Romney talked of cutting government money for public broadcasting in a presidential debate last fall and mentioned Big Bird, messages with that phrase surged. Human judges recognized instantly that “Big Bird,” in that context and at that moment, was mainly a political comment, not a reference to “Sesame Street,” and that politics-related messages should pop up when someone searched for “Big Bird.” People can understand such references more accurately and quickly than software can, and their judgments are fed immediately into Twitter’s search algorithm.
“Humans are core to this system,” two Twitter engineers wrote in a blog post in January.
Even at Google, where algorithms and engineers reign supreme in the company’s business and culture, the human contribution to search results is increasing. Google uses human helpers in two ways. Several months ago, it began presenting summaries of information on the right side of a search page when a user typed in the name of a well-known person or place, like “Barack Obama” or “New York City.” These summaries draw from databases of knowledge like Wikipedia, the C.I.A. World Factbook and Freebase, whose parent company, Metaweb, Google acquired in 2010. These databases are edited by humans.
When Google’s algorithm detects a search term for which this distilled information is available, the search engine is trained to go fetch it rather than merely present links to Web pages.
“There has been a shift in our thinking,” said Scott Huffman, an engineering director in charge of search quality at Google. “A part of our resources are now more human curated.”
Other human helpers, known as evaluators or raters, help Google develop tweaks to its search algorithm, a powerhouse of automation, fielding 100 billion queries a month. “Our engineers evolve the algorithm, and humans help us see if a suggested change is really an improvement,” Mr. Huffman said.
[...]
Fonte: aqui

Palavrão em artigo acadêmico



[...] 
In 2010, I published a paper:  ‘Christ fucking shit merde!’ Language preferences for swearing among maximally proficient multilinguals. Sociolinguistic Studies, 4 (3), 595-614. (doi : 10.1558/sols.v4i3.595). I investigated language preferences for swearing among multilinguals using an on-line questionnaire. They consisted of 386 adult multilinguals who had declared that they were maximally proficient in their first and second languages and used both languages constantly.
I discovered that despite similar levels of self-perceived proficiency and frequency of use in the first language and second language, the first language was used significantly more for swearing and first language swearwords were perceived to have a stronger emotional resonance. An analysis of additional interview data confirmed the findings of the quantitative analysis, also highlighting cultural issues in swearing. 
The working title of the paper was Language preferences for swearing among maximally proficient multilinguals until I heard an Anglo-Canadian author, Nancy Huston, who has lived in Paris for many years, being interviewed on France Inter about her swearing behaviour.  She explained that when she needs to express a strong emotion, like sudden anxiety, or when dropping a hammer on her foot, she swears in English. The journalist then asked her Vous dites quoi? ‘What do you say’?  Nancy answers: Je dis Christ fucking shit merde! ‘I say Christ fucking shit merde!’  (“merde” meaning ‘shit’, is a high-frequency French swearword).  She’s surprised at the presence of the French swearword and adds: Ah je peux ajouter merde! ‘Ah, I can add merde!’.
I thought this quote would be the perfect illustration of my paper, namely that while multilinguals generally prefer swearing in their first language, some second language swearwords may creep into their core emotional vocabulary as a result of years of affective socialization in the culture of the second language.
I had to argue with the guest editor and the general editor Sociolinguistic Studies to keep the swearwords uncensored in the title.  I explained that it would make no sense to censor them, as the code-switching would become invisible, and that it was exactly the phenomenon I was interested in. They agreed in the end. 
A few days ago, to my amused surprise, I won the award for “for most obscene title of a peer-reviewed scientific article”.  Merde alors!

Fonte: aqui