Translate

03 junho 2020

Deep Fake


Vários vídeos deepfake se tornaram virais recentemente, dando a milhões de pessoas em todo o mundo o primeiro gosto dessa nova tecnologia

No mês passado, durante a série de documentários de sucesso da ESPN, “O Último Arremesso” (“The Last Dance”), a State Farm estreou um comercial de TV que se tornou um dos anúncios mais discutidos na memória recente. Parecia mostrar imagens de 1998 de um analista da ESPN fazendo previsões chocantes e precisas sobre o ano de 2020.

Como se viu, o clipe não era genuíno: foi gerado usando IA de ponta. O comercial surpreendeu, divertiu e encantou os espectadores.

O que os espectadores deveriam ter sentido, no entanto, era uma profunda preocupação.

O anúncio da State Farm foi um exemplo benigno de um novo e importante fenômeno perigoso na IA: deepfakes. A tecnologia deepfake permite que qualquer pessoa com um computador e uma conexão à internet crie fotos e vídeos com aparência realista de pessoas dizendo e fazendo coisas que na verdade não disseram ou fizeram.

Combinação das expressões “deep learning” (aprendizado profundo) e “fake” (falso), as deepfakes surgiram pela primeira vez na internet no final de 2017, alimentadas por um novo método inovador de aprendizado profundo conhecido como redes adversárias generativas (GANs, na sigla em inglês).

Vários vídeos deepfake se tornaram virais recentemente, dando a milhões de pessoas em todo o mundo o primeiro gosto dessa nova tecnologia, por exemplo: o presidente Obama usando um palavrão para descrever o presidente Trump, Mark Zuckerberg admitindo que o verdadeiro objetivo do Facebook é manipular e explorar seus usuários, Bill Hader se transformando em Al Pacino em um programa de entrevistas tarde da noite.

A quantidade de conteúdo deepfake online está crescendo rapidamente. No início de 2019, havia 7.964 vídeos deepfake online, de acordo com um relatório da startup Deeptrace. Apenas nove meses depois, esse número saltou para 14.678. Sem dúvida, continuou a crescer desde então.

Embora impressionante, a tecnologia deepfake de hoje ainda não é parecida com imagens de vídeo autênticos. Olhando de perto, normalmente é possível dizer que um vídeo é uma deepfake. Mas a tecnologia está melhorando em um ritmo de tirar o fôlego. Os especialistas prevêem que as deepfakes serão indistinguíveis das imagens reais em pouco tempo.

“Em janeiro de 2019, deepfakes eram travadas e mostravam tremulações”, disse Hany Farid, professor da UC Berkeley e especialista em deepfake. “Nove meses depois, nunca vi nada parecido com o quão rápido eles estão indo. Esta é a ponta do iceberg.”

Hoje, estamos em um ponto de inflexão. Nos próximos meses e anos, as deepfakes ameaçam sair de um estado de raridade na internet para uma força política e social amplamente destrutiva. A sociedade precisa agir agora para se preparar.

Não confie em tudo que vê

O primeiro caso de uso ao qual a tecnologia deepfake foi amplamente aplicada (como costuma ser o caso das novas tecnologias) é a pornografia. Em setembro de 2019, 96% dos vídeos deepfake online eram pornográficos, de acordo com o relatório Deeptrace.

Surgiram vários sites dedicados especificamente à pornografia deepfake, que coletivamente receberam centenas de milhões de visualizações nos últimos dois anos. A pornografia deepfake quase sempre não é consensual, envolvendo a síntese artificial de vídeos explícitos que apresentam celebridades famosas ou contatos pessoais.

Saindo dos cantos escuros da web, o uso de deepfakes começou a se espalhar para a esfera política, onde o potencial de confusão é ainda maior.

Não é preciso muita imaginação para entender o mal que poderia ser causado se populações inteiras pudessem exibir vídeos fabricados que parecem ser reais. Imagine imagens deepfake de um político envolvido em suborno ou agressão sexual antes de uma eleição, ou soldados dos EUA cometendo atrocidades contra civis no exterior ou do presidente Trump declarando o lançamento de armas nucleares contra a Coreia do Norte. Em um mundo em que ainda existe alguma incerteza sobre a autenticidade de alguns vídeos, as consequências podem ser catastróficas.

Por causa da ampla acessibilidade da tecnologia, essas imagens podem ser criadas por qualquer pessoa: atores patrocinados pelo Estado, grupos políticos, indivíduos isolados.

Em um relatório recente, a Brookings Institution listou os perigos políticos e sociais que as deepfakes representam: “distorção do discurso democrático, manipulação de eleições, diminuição da confiança nas instituições, enfraquecimento do jornalismo, aumento de divisões sociais, comprometimento da segurança pública, e danos difíceis de reparar à reputação de pessoas proeminentes, incluindo cargos públicos e candidatos a cargos.”

Dado o que está em jogo, os legisladores dos EUA começaram a prestar atenção.

“Antigamente, se você queria ameaçar os Estados Unidos, precisava de 10 porta-aviões, armas nucleares e mísseis de longo alcance”, disse recentemente o senador Marco Rubio. “Hoje tudo o que você precisa é a capacidade de produzir um vídeo falso muito realista que possa prejudicar nossas eleições, que possa lançar nosso país em uma tremenda crise interna e nos enfraquecer profundamente.”

Os especialistas em tecnologia concordam. Nas palavras de Hani Farid, um dos principais especialistas mundiais em deepfakes: “Se não podemos acreditar nos vídeos, nos áudios, na imagem, nas informações coletadas em todo o mundo, isso representa um sério risco à segurança nacional.”

Esse risco não é mais apenas hipotético: existem exemplos iniciais de deepfakes que influenciam a política no mundo real. Especialistas afirmam que esses incidentes são apenas um alerta do que está por vir.

No mês passado, um grupo político na Bélgica divulgou um vídeo em profundidade do primeiro-ministro belga, fazendo um discurso que ligava o surto de Covid-19 a danos ambientais e pedia ações drásticas sobre as mudanças climáticas. Pelo menos alguns espectadores acreditavam que o discurso era real.

Apenas a mera possibilidade de um vídeo ser um deepfake já pode gerar confusão e facilitar o engano político, independentemente de a tecnologia ter sido realmente usada. O exemplo mais dramático disso vem do Gabão, um pequeno país da África central.

No final de 2018, o presidente do Gabão, Ali Bongo, não era visto em público havia meses. Havia rumores de que ele não era mais saudável o suficiente para o cargo ou mesmo que ele tinha morrido. Na tentativa de acalmar essas preocupações e reafirmar a liderança de Bongo sobre o país, seu governo anunciou que ele daria um discurso televisionado em todo o país no dia de Ano Novo.

No vídeo, Bongo parece rígido e empolgado, com discurso não natural e maneirismos faciais. O vídeo imediatamente provocou suspeitas de que o governo estivesse ocultando algo do público. Os opositores políticos declararam que as filmagens eram um golpe profundo e que o presidente estava incapacitado ou morto. Os rumores de uma conspiração profunda se espalharam rapidamente nas mídias sociais.

A situação política no Gabão se desestabilizou rapidamente. Dentro de uma semana, os militares lançaram um golpe –o primeiro no país desde 1964–, citando o vídeo do Ano Novo como prova de que algo estava errado com o presidente.

Até hoje, os especialistas não podem dizer definitivamente se o vídeo de Ano Novo era autêntico, embora a maioria acredite que era. (O golpe não teve êxito; Bongo apareceu em público e permanece no cargo hoje).

Mas se a veracidade do vídeo é quase irrelevante. A lição mais ampla é que o surgimento de deepfakes tornará cada vez mais difícil para o público distinguir entre o que é real e o que é falso, uma situação que os atores políticos inevitavelmente explorarão –com consequências potencialmente devastadoras.

“As pessoas já estão usando o fato de que as deepfakes existem para desacreditar evidências de vídeo genuínas”, disse o professor da USC, Hao Li. “Embora haja imagens de alguém fazendo ou dizendo algo, você pode dizer que é uma deepfake e é muito difícil provar o contrário.”

Em dois incidentes recentes, políticos na Malásia e no Brasil tentaram evitar as consequências de vídeos, alegando que as imagens eram falsas. Nos dois casos, ninguém foi capaz de estabelecer definitivamente o contrário –e a opinião pública permaneceu dividida.

A pesquisadora Aviv Ovadya alerta sobre o que ela chama de “apatia da realidade”: “É preciso muito esforço para descobrir o que é real e o que não é, então você tende a valorizar mais aquilo que reforça suas crenças anteriores ao ocorrido.”

Em um mundo em que imagens não são mais representantes da verdade, a capacidade de uma grande comunidade concordar com o que é verdadeiro –ou de se envolver em um diálogo construtivo sobre o assunto– de repente parece precária.

Um jogo tecnológico de gato e rato

A principal tecnologia que possibilita as deepfakes é um ramo do deep learning, conhecido como redes contraditórias generativas (GANs, na sigla em inglês). As GANs foram inventadas por Ian Goodfellow em 2014 durante seus estudos de doutorado na Universidade de Montreal, um dos principais institutos de pesquisa em IA do mundo.

Em 2016, Yann LeCun chamou as GANs de “a ideia mais interessante nos últimos dez anos em aprendizado de máquina”.

Antes do desenvolvimento das GANs, as redes neurais eram hábeis em classificar o conteúdo existente (por exemplo, entender a fala ou reconhecer rostos), mas não na criação de novos conteúdos. As GANs deram às redes neurais o poder não apenas de perceber, mas de criar.

A inovação conceitual de Goodfellow foi arquitetar GANs usando duas redes neurais separadas –uma conhecida como “geradora” e outra conhecida como “discriminadora”– e colocá-las umas contra as outras.

Começando com um determinado conjunto de dados (por exemplo, uma coleção de fotos de rostos humanos), o gerador começa a criar novas imagens que, em termos de pixels, são matematicamente semelhantes às imagens existentes. Enquanto isso, o discriminador recebe fotos sem saber se elas são do conjunto de dados original ou da saída do gerador; sua tarefa é identificar quais fotos são sintéticas.

À medida que as duas redes trabalham interativamente uma contra a outra –o gerador tentando enganar o discriminador, o discriminador tentando descobrir as criações do gerador– elas aprimoram as capacidades um do outro. Eventualmente, a taxa de sucesso da classificação do discriminador cai para 50%, nada melhor do que suposições aleatórias, o que significa que as fotos geradas sinteticamente se tornaram indistinguíveis das originais.

Uma das razões pelas quais deepfakes proliferaram é o ethos de código aberto da comunidade de aprendizado de máquina: a partir do artigo original da Goodfellow, sempre que ocorre um avanço na pesquisa em modelagem generativa, a tecnologia geralmente é disponibilizada gratuitamente para qualquer pessoa no mundo baixar e utilizar.

Dado que as deepfakes são baseadas inteligência artificial em primeiro lugar, alguns consideram a IA uma solução para aplicativos prejudiciais da complexa tecnologia. Por exemplo, os pesquisadores construíram sistemas sofisticados de detecção de deepfake que avaliam iluminação, sombras, movimentos faciais e outros recursos para sinalizar imagens fabricadas. Outra abordagem defensiva inovadora é adicionar um filtro a um arquivo de imagem que impossibilite a geração de uma deepfake.

Surgiram várias startups que oferecem software para se defender contra a essa tecnologia, incluindo Truepic e Deeptrace.

No entanto, é provável que essas soluções tecnológicas não impeçam a propagação de deepfakes no longo prazo. Na melhor das hipóteses, elas levarão a uma dinâmica interminável de gato e rato, semelhante à que existe hoje na segurança cibernética, na qual os avanços na pesquisa de detecção de deepfake estimulam mais inovações no setor. A natureza de código aberto da pesquisa em IA torna isso ainda mais provável.

Para dar um exemplo, em 2018 os pesquisadores da Universidade de Albany publicaram uma análise mostrando que as irregularidades no brilho costumavam ser um sinal revelador de que um vídeo era falso. Foi um avanço útil –até que, em meses, começaram a surgir novos vídeos que corrigiam essa imperfeição.

“Estamos desarmados”, disse Farid. “O número de pessoas que trabalham no lado da síntese de vídeo, em oposição ao lado do detector, é de 100 a 1.”

O caminho a seguir

Olhando além das soluções puramente tecnológicas, que medidas legislativas, políticas e sociais podemos tomar para nos defendermos dos perigos das deepfakes?

Uma solução simples e tentadora é aprovar leis que tornam ilegal a criação ou disseminação desses vídeos. O estado da Califórnia experimentou essa abordagem, promulgando uma lei no ano passado que torna ilegal a criação ou distribuição de falsas acusações de políticos dentro de 60 dias após a eleição. Porém, uma proibição generalizada tem desafios constitucionais e práticos.

A Primeira Emenda da Constituição dos EUA consagra a liberdade de expressão. Qualquer lei que proíba conteúdo online, particularmente conteúdo político, corre o risco de entrar em conflito com essas proteções constitucionais.

“O discurso político desfruta do mais alto nível de proteção sob a lei dos EUA”, disse Jane Kirtley, professora de direito. “O desejo de proteger as pessoas de conteúdos enganosos no período que antecede uma eleição é muito forte e compreensível, mas estou cética de que elas serão capazes de fazer cumprir a lei da Califórnia.”

Além das preocupações constitucionais, as proibições provavelmente serão impraticáveis devido ao anonimato e falta de fronteiras da internet.

Outras estruturas legais existentes que podem ser implementadas para combater as deepfakes incluem direitos autorais, difamação e direito à publicidade. Mas, dada a ampla aplicabilidade da doutrina do uso justo, a utilidade dessas vias legais pode ser limitada.

No curto prazo, a solução mais eficaz pode vir das principais plataformas de tecnologia, como Facebook, Google e Twitter, voluntariamente adotando medidas mais rigorosas para limitar a disseminação de deepfakes prejudiciais.

Contar com empresas privadas para resolver amplos problemas políticos e sociais compreensivelmente deixa muitos profundamente desconfortáveis. No entanto, como afirmam os juristas Bobby Chesney e Danielle Citron, os contratos de termos de serviço dessas plataformas tecnológicas são “os documentos mais importantes que governam a fala digital no mundo de hoje”. Como resultado, as políticas de conteúdo dessas empresas podem ser “o mecanismo de resposta mais saliente de todos” às deepfakes.

Uma opção legislativa relacionada é alterar a polêmica Seção 230 da Lei de Decência das Comunicações. Escrita no princípio da internet comercial, a Seção 230 oferece às empresas de internet quase completa imunidade civil para qualquer conteúdo postado em suas plataformas por terceiros. Voltar essas proteções tornaria companhias como o Facebook legalmente responsáveis ​​por limitar a propagação de conteúdo prejudicial em seus sites. Mas essa abordagem levanta preocupações complexas de liberdade de expressão e censura.

No final, nenhuma solução será suficiente. Um primeiro passo essencial é simplesmente aumentar a conscientização do público sobre as possibilidades e os perigos das deepfakes. Um cidadão informado é uma defesa crucial contra desinformação generalizada.

O recente aumento de fake news levou a temores de que estamos entrando no mundo “pós-verdade”. Deepfakes ameaçam intensificar e acelerar essa trajetória. O próximo capítulo importante desse drama provavelmente está chegando: as eleições de 2020. Os riscos dificilmente poderiam ser maiores.

“O homem na frente do tanque na praça Tiananmen mudou o mundo”, disse Nasir Memon, professor da Universidade de Nova York. “Nixon ao telefone custou a presidência. Imagens de horror dos campos de concentração finalmente nos levaram à ação. Se a noção de não acreditar no que você vê está sob ataque, isso é um grande problema. É preciso restaurar a verdade para enxergar com clareza novamente.”


Fonte: Forbes

Nenhum comentário:

Postar um comentário