Translate

Mostrando postagens com marcador radicalismo. Mostrar todas as postagens
Mostrando postagens com marcador radicalismo. Mostrar todas as postagens

30 abril 2022

Competições de debate ajudam a entender o radicalismo

Como entender um pouco o radicalismo de nossas redes sociais? Uma pesquisa realizada nas competições de debates, onde os debatedores recebem a posição, a favor ou contra, sobre um assunto e precisam defender sua posição, pode dar uma pista sobre o assunto. Um resumo acessível pode ser encontrado aqui.

A pesquisa acompanhou as competições em diferentes fases. Quando a pesquisa começa, acredita-se que exista uma posição de equilíbrio sobre um determinado tema. Por exemplo, a favor ou contra entregar celular para uma criança. Quando o assunto é divulgado e feito o sorteio, há um tempo de preparação - de 15 minutos. Logo a seguir, os pesquisadores entrevistaram os participantes. Veja no gráfico que os pontos vermelhos distanciam dos pontos azuis, indicando que cada lado acredita na sua posição. (No gráfico, os pontos vermelhos representam quem é a favor da posição debatida, estando como "defensores"; os pontos azuis é quem é a favor da posição debatida, estando como "opositores") 

Após uma hora de debate, novamente os pesquisadores investigam as crenças, as confianças e as atitudes (as três partes do gráfico), revelando que ocorreram mudanças durante a competição. O ato de debater - mesmo antes do debate - faz com que as pessoas assumam sua posição de forma mais forte. É como se as pessoas "vestissem a camisa" do seu lado. 

Uma possibilidade de evitar o radicalismo é fazer algo que muitas pessoas já sabem: não entrem na discussão, pois isto aumenta a polarização. É algo que me faz lembrar a razão pela qual os ingleses gostam de falar sobre o tempo; ao contrário da política e do futebol, é muito difícil polarizar quando discutimos se amanhã irá chover ou se a temperatura está agradável. 

22 outubro 2019

Como surgiu o radicalismo

Como surgiu o radicalismo 

Algoritmos podem deixar pessoas encurraladas em um canto do espectro ideológico

Fernando Reinach*, O Estado de S.Paulo
12 de outubro de 2019

Stuart Russell é um dos principais cientistas da área de Inteligência Artificial (IA). Seu livro sobre o tema é usado na maior parte das universidades. Enquanto todos se preocupam com o risco de os sistemas de IA substituírem seres humanos, ele aponta um muito maior: perdermos o controle sobre esses sistemas. E discute um exemplo real, dos algoritmos de IA que estão causando polarização política.



Enquanto programas de computação clássicos são uma sequência de instruções que chegam a um resultado, sempre com o mesmo procedimento, sistemas modernos de IA são poderosos porque não seguem procedimentos rígidos. Você determina o objetivo e o computador descobre a melhor maneira de atingi-lo.



Imagine um robô programado de forma clássica. Você pede a ele que te traga uma cerveja. Ele estará programado para abrir a geladeira, pegar a cerveja e te trazer. Se não encontrar, vai provavelmente te avisar que não tem cerveja na geladeira. Um hipotético robô contendo sistema de IA sofisticado não está programado para ir à geladeira, mas para resolver o problema - no caso, te conseguir uma cerveja - de forma independente. Ele vai à geladeira e não encontra a cerveja. Então, descobre um local onde pode encontrá-la, o bar da esquina. De maneira independente, se dirige ao bar. Ele tomou a decisão usando o que descobriu sobre o funcionamento do mercado de cerveja.

Mas imagine que acontece algo inesperado: o cartão de crédito que levou é recusado. Há duas possibilidades. O sistema de IA é suficientemente sofisticado para entender que esse é um obstáculo intransponível e volta sem a cerveja ou, por não ter acesso a leis e códigos morais da sociedade, decide que a melhor solução é matar o dono do bar e levar a cerveja. Como nenhuma dessas ações estava previamente programada, o fabricante só vai descobrir a besteira quando a polícia bater à porta.

O exemplo parece estapafúrdio, mas Russell, em um debate em Londres no lançamento do seu livro, explicou o que aconteceu com sistemas de IA do Google (YouTube) e Facebook. É uma história real. Algoritmos de IA dessas empresas foram construídos para aumentar o número de vezes que o usuário clica em outro link após ler o anterior - as empresas ganham mais quanto maior o número de visualizações.

Os programadores imaginavam que o sistema de IA descobriria o que a pessoa gostava de ler e apresentaria mais exemplos desse assunto. Mas o que aconteceu na prática não foi o previsto. O sistema de IA descobriu que a melhor maneira de aumentar a probabilidade de você clicar no próximo filme (ou post) não é sugerir o que aparentemente você gosta, mas aos poucos modificar sua preferência de modo a focar sua preferência em um ou poucos assuntos. O sistema de IA chegou sozinho a essa descoberta e, à medida que ela funcionou, aumentando o número de cliques, o algoritmo passou a adotar e refinar essa estratégia.

No caso de assuntos de política, se uma pessoa é de centro, pode preferir clicar em algo mais à esquerda ou à direita de sua posição, o que diminuía a probabilidade de a pessoa clicar novamente. Mas, se o algoritmo aos poucos levá-la aos extremos (esquerda ou direita), ao longo do tempo ela acaba encurralada em um dos cantos do espectro ideológico e então a probabilidade de clicar em algo parecido aumenta.

Russell contou que esse efeito foi descoberto por seus alunos (são eles que trabalham nessas empresas), mas a armadilha já estava montada. Voltar atrás diminuiria o número de cliques. Marqueteiros políticos também descobriram isso e passaram a produzir conteúdos que auxiliavam o algoritmo a segregar as pessoas em extremos. Exemplos citados na palestra são Estados Unidos, Inglaterra e Brasil.

É uma história impressionante. Russell sugere que isso é o início da perda de controle sobre sistemas de IA. E está ocorrendo com sistemas relativamente simples. A preocupação é o que pode ocorrer quando se tornarem mais poderosos, superando a inteligência humana. Mas isso é só o começo do livro. A maior parte descreve formas de garantir que mesmo usando sistemas mais inteligentes não venhamos a perder o controle sobre as máquinas. Vale a pena ler.

MAIS INFORMAÇÕES: HUMAN COMPATIBLE. AI AND THE PROBLEM OF CONTROL. STUART RUSSELL ED. ALLEN LANE PRESS (2019)