Categorias
Uncategorized

Como funciona a manipulação das milícias digitais do bolsonarismo

Antropóloga analisa: extrema-direita manipulou características do WhatsApp — fechado, difícil de rastrear e mais acessado que outras redes — para transformar população insatisfeita em reprodutores da palavra do “capitão”.

Letícia Cesarino é professora no Departamento de Antropologia e no Programa de Pós-Graduação em Antropologia Social da Universidade Federal de Santa Catarina (UFSC). É graduada em ciências sociais pela Universidade Federal de Minas Gerais (UFMG) (2004), mestra em antropologia pela Universidade de Brasília (UnB) (2006), e doutora em antropologia pela Universidade da Califórnia em Berkeley (2013). Tem trabalhado e publicado nos campos da antropologia da ciência e tecnologia, antropologia digital, antropologia econômica e do desenvolvimento, globalização e estudos pós-coloniais.

Você tem realizado pesquisa de campo nos grupos de WhatsApp. Como funciona essa pesquisa? Por que resolveu se dedicar a este campo?

Trabalho há muitos anos no campo da antropologia da ciência e cibernética, e mais recentemente tenho focado no estudo da internet e mídias digitais. A surpreendente eleição brasileira de 2018 despertou interesse de pesquisadores no mundo inteiro, mas minha aproximação se deu por motivos pessoais, quando uma pessoa muito próxima, que eu acreditava ter um perfil destoante do de Jair Bolsonaro, declarou seu voto a ele. Como estava claro que a imagem do então candidato havia sido construída digitalmente, principalmente através da quantidade maciça de conteúdo pelo WhatsApp, comecei aí minha pesquisa, exatamente um ano atrás. O foco desde então tem sido grandes grupos públicos pró-Bolsonaro no WhatsApp, complementado por outras plataformas que se ligam a ele num ecossistema comum, especialmente Twitter, YouTube e Facebook. Eu por enquanto venho apenas coletando conteúdo e observando interações nessas mídias, mas numa segunda etapa o plano é passar para etnografia offline com alguns desses usuários.

O que é o populismo digital? Quais as diferenças principais em relação ao populismo tradicional?

As continuidades entre os dois são muitas, mas há diferenças importantes. A teoria do populismo do argentino Ernesto Laclau, na qual eu me baseio, foi desenvolvida para entender populismos pré-digitais clássicos, como o de Juan Perón ou Getúlio Vargas. Hoje, ainda considero válido o núcleo da teoria, segundo a qual populismo é a construção da identidade de “povo” num contexto de crise, por uma liderança carismática que se diz antissistema, através de dois eixos discursivos articulados: uma fronteira antagonística opondo amigo a inimigo, e uma cadeia de equivalência unindo líder e povo. Em todos os casos, o populismo opera com um tipo de linguagem essencialmente performativa, na qual o emissário (líder) e receptores (povo) da mensagem não preexistem enquanto tais ao ato comunicativo que os une, mas são constituídos por ele. Vimos claramente como isso ocorreu no caso brasileiro, onde, num contexto de crise aguda, a multidão difusa que foi às ruas em junho de 2013 foi sendo gradualmente construída enquanto “povo”, primeiro através do eixo antagonístico do antipetismo e do movimento anticorrupção, e depois através da cadeia de equivalência mobilizada por Jair Bolsonaro em 2018, que operou com o tipo de simbologia mais elementar e previsível possível: em torno da ideia da nação. A base para a irrupção populista já estava posta: tudo o que Jair Bolsonaro precisou fazer foi aproveitá-la para proveito próprio, valendo-se do seu carisma como alguém espontâneo e antipoliticamente correto (o “mito”) através de uma estratégia de campanha digital bastante sofisticada e bem planejada.

A diferença do populismo digital está, creio, no seu tipo especial de eficácia: as mediações digitais permitem fractalizar o mecanismo descrito por Laclau para a rede de seguidores do líder, que passam a reproduzi-lo de modo espontâneo. Na era pré-digital, a eficácia da liderança populista dependia muito das suas capacidades pessoais – oratória, por exemplo. Hoje, boa parte desse carisma e capacidade mobilizadora passa não pela pessoa do líder, mas por atributos das próprias mídias digitais, dos memes aos algoritmos. Todo populista bem-sucedido hoje precisa ser também um bom influenciador digital. Mas no caso brasileiro, diferente de outros, interveio uma contingência que se mostrou crucial: o atentado à faca sofrido pelo candidato. A partir desse momento, formou-se o que eu chamei do “corpo digital do rei”, onde o corpo de apoiadores de Bolsonaro (os autointitulados “marqueteiros do Jair”) substituiu seu corpo físico debilitado na campanha eleitoral, o que foi determinante para sua vitória. Nesse ponto, a campanha Bolsonaro surfou num elemento de eficácia que é próprio do modelo de negócios das redes sociais atualmente, que se baseiam no user-generated content, ou conteúdos gerados pelos usuários.

De que forma o WhatsApp e suas particularidades funcionais contribuem para a disseminação do discurso populista, se comparado a outras redes sociais?

O principal diferencial do WhatsApp, como outros pesquisadores também têm apontado, é a sua extraordinária capilaridade. Isso ocorre por vários fatores. O mais evidente é o padrão de uso do aplicativo, pois, por ser uma ferramenta que em larga medida substituiu a função de comunicação pessoal do telefone, é checado com assiduidade maior que outros. Isso é um fator central para o sucesso do mecanismo populista, pois, para que ele continue gerando o efeito de unificação do “povo”, é preciso que a mobilização seja constante. Um dos tipos de conteúdo digital mais comuns, tanto antes quanto depois da eleição, são justamente mensagens alarmistas e conspiratórias – às vezes falsas, às vezes apenas exageradas – que visam essa função mobilizadora, normalmente indicada em avisos como “urgente!” ou “cuidado!”. Muitos algoritmos, como o do YouTube, premiam esse tipo de conteúdo.

Além disso, o WhatsApp possibilitou que conteúdo de campanha (tanto a oficial como a não-oficial, supostamente feita pelos próprios apoiadores do então candidato) que circulava em outras plataformas como Twitter ou Facebook chegasse a usuários que não estavam registrados ou ativos nelas. E melhor ainda: chegavam já filtrados. É possível que o WhatsApp tenda a ser visto como uma plataforma mais confiável, pois não é aberta à interação pública como outras, e normalmente opera fundamentalmente através de redes pessoais. E há ainda, no caso do Brasil, um fator infraestrutural que é determinante: os pacotes de dados com WhatsApp grátis, oferecido por todas as operadoras. Muitos pesquisadores vêm apontando como, para boa parte da população, o acesso à internet se limita ao WhatsApp, o que basicamente impossibilita a checagem de fatos e o acesso ao contraditório. As pessoas passam a ver o mundo através de uma bolha digital fechada, que se torna a única representação “verdadeira” (pois a única disponível) do mundo político. Isso foi, inclusive, bastante estimulado pelo atual presidente durante a campanha, ao deslegitimar desde o início a imprensa e a esfera pública de modo mais amplo, e pedir aos seus eleitores que acessassem informação exclusivamente através das suas lives e redes sociais. Como se diz por aí: o Twitter virou o novo diário oficial.

Esse elemento de construir um canal de acesso exclusivo do líder ao “povo” é uma característica também dos populismos pré-digitais. O melhor exemplo que temos no nosso caso talvez seja a Voz do Brasil, criada justamente por Getúlio Vargas. O problema de hoje é que esse canal exclusivo, quando construído por meio das mídias digitais, é visto como espontâneo, horizontal e movido pela liberdade de expressão. Mas essa dicotomia é enganadora: aqui, liberdade e controle, espontaneidade e manipulação andam juntos. Por isso, inclusive, a perspectiva cibernética é interessante, uma vez que opera com noções de “comando e controle” que são transversais a essas dicotomias. Como venho insistindo, as mídias digitais são um tipo paradoxal de mediação, pois geram no usuário uma falsa experiência de ausência de mediação. Os apoiadores de Jair Bolsonaro acham que podem prescindir do sistema político-representativo pois acreditam poder acessá-lo diretamente através do seu smartphone. Essa expectativa é, aliás, regularmente alimentada pelo presidente nas suas redes sociais, ao dizer que tal ou qual medida foi tomada depois de ouvir tal ou qual eleitor no seu Facebook ou Twitter.

Você afirma que o WhatsApp apresenta certas características que o diferenciam das outras redes sociais nos últimos anos. O que e como exatamente essas possibilidades dos usuários nessa rede permitem a interação política?

Há um pressuposto que precisa ser problematizado: o WhatsApp é uma rede social? O aplicativo não parece ter sido originalmente criado por seus desenvolvedores com esse propósito, mas para ser um meio de comunicação privado. Por isso ele é peer-to-peer, encriptado etc. Porém, devido a ferramentas como a de encaminhamento, os grandes grupos e os links para grupos públicos, o aplicativo tem sido utilizado, na prática, como uma rede social. As interações que ocorrem ali, são de difícil, senão impossível, rastreio, e têm incidido em questões públicas cruciais como o processo eleitoral – mas não apenas. As ferramentas de monitoramento de WhatsApp disponíveis (na UFMG e UFBA, por exemplo), indicam a incidência do aplicativo em outros setores como o de saúde pública.

Isso coloca dilemas regulatórios bastante particulares, e ainda mais complicados do que no caso do Facebook e outras redes, que já eram eles mesmos difíceis de lidar. Pois o WhatsApp é, hoje, uma espécie de terra de ninguém: a quantidade de conteúdos explícitos de violência (espancamentos, estupros, assassinatos, torturas), pornografia e fraudes como oferta de cartões de crédito ou documentos falsos que circula é impressionante. Apesar de os grupos que eu acompanho serem exclusivos para política e proibirem expressamente esse tipo de conteúdo, é comum que eles “vazem” para os grupos, especialmente naqueles em que os moderadores não são muito ativos. Já vi até grupos acabarem depois de terem sido “inundados” por esse tipo de conteúdo. Por isso, o WhatsApp tem sido às vezes chamado da nova deep web.

Ao passo em que muitas pessoas se dizem insatisfeitas com a política tradicional, grande parte continua integrando grupos de WhatsApp com discussões sobre o assunto. Existe, nesses grupos, de alguma forma, esfera de controle social sobre o debate público?

Acho que há uma questão crucial que poucos estão notando. É bastante comum ouvir nas redes bolsonaristas como o atual presidente fez com que as pessoas se interessassem por política como nunca antes no Brasil – o que é alardeado como um dos feitos milagrosos do “mito”. Mas, para mim, a questão que se coloca é outra: como o bolsonarismo e as mídias digitais têm transformado o que se entende por política no Brasil. Havia um elemento de entretenimento bastante evidente na campanha eleitoral de Jair Bolsonaro, que foi avançada por meios quase que exclusivamente digitais e se pretendia antissistema. No lugar dos antigos debates enfadonhos na TV, longos planos de governo em linguagem burocrática, especialistas que ninguém entende, foi oferecido aos eleitores o carisma dos memes, da lacração, dos roteiros quase hollywoodianos das narrativas conspiracionistas, a excitação de um campeonato de futebol que precisa ser vencido a qualquer custo, a diversão das dancinhas coreografadas e hits do MC Reaça, a catarse coletiva de projetar todas as frustrações individuais em um inimigo público comum (no caso, o PT). E não apenas entretenimento: a campanha grassroots de Bolsonaro foi inclusive uma oportunidade de geração de renda no contexto de precariedade trabalhista no qual se encontra boa parte da população brasileira – desde as ubíquas camisetas do mito vendidas nas ruas, até canais do YouTube que conseguiam seguidores o suficiente para se monetizar, passando por meios mais obscuros como os sites de fake news que geram renda através de ferramentas de propaganda personalizada como o Google AdSense (muitos dos quais, inclusive, eram difundidos através do WhatsApp). Não é difícil qualquer um, mesmo crianças e adolescentes, se interessarem por política hoje em dia, porque a política na nossa época neoliberal já virou outra coisa.

Nos termos de Laclau, podemos dizer que, no contexto populista atual, a política passa principalmente não pela racionalidade, impessoalidade e debate público, mas pelo plano dos “afetos”, e por um nível muito elementar de formação de grupo que prescinde de qualquer educação política no sentido específico do termo. Em minhas análises, utilizo vários conceitos desenvolvidos por antropólogos a partir de pesquisas com sociedades tribais, na África ou na Melanésia. Eles fazem muito sentido para pensar elementos centrais da política hoje. Em minhas análises tenho sugerido, inclusive, que a prevalência das mediações digitais no mundo de hoje tem desestruturado pilares centrais do que chamamos de modernidade, como a ciência e a democracia representativa. Neste sentido, não seria à toa que nosso comportamento político tem se afastado do que seria a norma para a teoria política liberal, e se aproximado de formas políticas de sociedades não modernas ou do passado do ocidente, como as políticas das multidões na Europa do século XIX.

O que se tem observado no Brasil e em outros lugares do mundo hoje é que as pessoas têm feito suas escolhas eleitorais com base nos mesmos critérios que utilizam para outros tipos de interação social. Isso é democracia? Mais ou menos. Pois o que temos visto nas redes bolsonaristas, de modo bastante claro, é uma redução do significado de democracia a apenas um de seus componentes, o da soberania popular. A viúva de Laclau, a belga Chantal Mouffe, aponta que a democracia moderna possui, ainda, um outro polo além desse, que é o liberal-institucional, representado em estruturas de pesos e contrapesos como o equilíbrio dos três poderes. É esse polo que tende a ser esvaziado em contextos de irrupção populista, e é exatamente o que vemos hoje, em pautas bolsonaristas como os ataques ao STF, ao legislativo, e a evocação das Forças Armadas.

O que as pessoas no Brasil parecem não estar se lembrando é que igualar democracia apenas à vontade da maioria, à suposta vontade do “povo” incorporada na figura do líder acima de tudo e de todos, não é democracia. A história europeia do século XX deu a isso um outro nome.

 

 

*Por Maria Clara Ferreira Guimarães e Matheus Antonino Vaz/Outras Palavras

Categorias
Uncategorized

Como o Youtube se tornou um celeiro da nova direita radical

Resolvi fazer um experimento. Com um navegador recém instalado, abri o YouTube e cliquei em um vídeo sobre as máquinas de forjamento de martelo mais rápidas e pesadas que existem. Deixei o sistema rodar mais 13 vídeos na sequência, assistindo aos vídeos, sem deixar likes ou fazer login. A ideia era ver quais eram as sugestões que o YouTube recomendava depois do primeiro.

Após passar por vídeos de halterofilismo, corte de árvores e muitos anúncios de ferramentas pesadas, equipamentos e carne para churrasco e outros, o YouTube me recomendou um vídeo sobre como fazer munição para uma arma semi-automática.

As recomendações e os anúncios, voltados para quem exalta o estilo de vida do Rambo, mostram que os algoritmos entenderam que, porque eu cliquei em um único vídeo de máquinas pesadas, eu sou homem e gosto de armas e churrasco.

Essas conexões que os algoritmos fizeram vêm dos dados que o YouTube analisou sobre meu comportamento no site e sobre os vídeos com os quais interagi, seja clicando sobre o vídeo, pausando, aumentando o volume ou até mexendo o mouse sobre as recomendações. Tudo é monitorado. As métricas que escolhem quais vídeos serão recomendados são baseadas, principalmente, na possibilidade de um vídeo ser assistido pelo usuário. Ela faz parte de um mecanismo sofisticado de inteligência que tem um objetivo principal: fazer com que você passe o máximo de tempo possível no YouTube.

Como conteúdos extremistas naturalmente chamam mais atenção, a plataforma cria uma bolha conectando vídeos bizarros. Assim, usuários mergulham cada vez mais fundo num assunto. Não por acaso, da fabricação de martelos eu fui levada pelo algoritmo para um vídeo sobre munição e armas em apenas 13 passos. A mesma coisa acontece com vídeos relacionados à política.
Recomendação ao extremo

Em 2015, os usuários do YouTube subiam 400 horas de vídeo por minuto. A maior parte desse conteúdo é criada de forma amadora. No site, usuários de todo o mundo gastam mais de um bilhão de horas assistindo a vídeos todos os dias.

Apesar de ter um serviço de assinaturas, o YouTube Premium, o serviço ganha dinheiro mesmo é com anúncios. Para sustentar a infraestrutura necessária – e garantir que o modelo continue crescendo – o site precisa ser gigante. Como na velha TV aberta, quanto mais pessoas assistindo a um programa, mais gente vê os comerciais durante os intervalos.

Para manter o interesse das pessoas nos canais – e garantir que elas sejam expostas a mais e mais anúncios –, a plataforma usa algoritmos para organizar o conteúdo e circular vídeos novos, gerando uma demanda diária por novo material. Esses algoritmos usam uma combinação de dados para recomendar vídeos que visam, literalmente, prender e viciar as pessoas.

Quando o sistema de recomendações foi lançado, em 2010, ele deu resultados imediatos: começou a ser responsável por 60% dos cliques dos usuários, segundo artigo científico escrito pelos cientistas do Google no mesmo ano.

Em 2015, com a liderança do time Google Brain, a empresa começou usar aprendizado de máquina – conhecido em inglês como machine learning – para melhorar o sistema de recomendações. Em 2017, o YouTube começou a rodar tudo sobre uma sofisticada plataforma de inteligência artificial, o Tensorflow.

Estava completa a transição para um sistema que aprende sem ser “supervisionado” por humanos – tecnologia também chamada de unsupervised deep learning, ou aprendizado profundo sem supervisão. Esses algoritmos escolhem quais vídeos vão para a barra de recomendados, quais aparecem na busca, qual vídeo toca a seguir quando no modo reprodução automática (o autoplay) e também montam a homepage dos usuários no YouTube. Sim, cada vez que você abre sua home ela está diferente. Ela foi customizada pelas máquinas para que você assista mais e mais vídeos.

Para tomar as decisões por você, os algoritmos associam significados que eles mesmos aprendem em etapas, de modo a filtrar e combinar categorias para chegar em um conjunto de vídeos ou anúncios para recomendar. Primeiro, dão um significado para um vídeo segundo suas características. Depois, combinam esse significado com mais dados, como por exemplo a quantidade de horas que um usuário gasta assistindo determinados vídeos com significados semelhantes. As categorias vão sendo combinadas pelos algoritmos para encontrar as recomendações que o usuário tem mais possibilidade de clicar e assistir:

O site gera essas recomendações a partir das suas interações, nas informações dos vídeos e nos dados dos usuários. Isso engloba tudo que você faz no navegador: parar o vídeo, colocar o mouse por cima de determinada imagem, aumentar ou diminuir o volume, quais abas você está navegando quando está vendo vídeos, com quem você interage nos comentários e que tipo de comentários faz, se deu like ou dislike e até mesmo a taxa de cliques em recomendações etc.

Como a interação não é só baseada em likes, o YouTube valoriza também os comentários, atribuindo valores de positivo e negativo às conversas. Por causa disso, o feedback do usuário sobre o vídeo é avaliado e pesa na fórmula que calcula a possibilidade da pessoa assistir aos outros vídeos. Mesmo sem dar like, você entrega os seus dados e tem sua interação monitorada o tempo todo.

Os autores dos vídeos sabem muito bem como funciona essa lógica. Os anunciantes também. Os youtubers têm à sua disposição a plataforma para criadores do YouTube, o YouTube Studio, que fornece métricas e informações sobre a audiência. Assim, existe um incentivo para os produtores fazerem vídeos cada vez mais extremos e bizarros para prender a audiência o máximo possível. Isso explica um pouco a obsessão da internet pela banheira de Nutella, e também ajuda a entender como se elegeram tantos youtubers interconectados nas últimas eleições.

Como conteúdo radical dá dinheiro, por conta dos anúncios, extremistas usam também outras ferramentas para incentivar a formação de bolhas e atrair cada vez mais gente. No Brasil, donos de canais de conteúdo extremo e conspiratório, como a Joice Hasselmann, por exemplo, costumam divulgar seu número do WhatsApp, viciando as pessoas em seus conteúdos com base na exploração dessa relação de proximidade ou intimidade.
Redes de extrema-direita

Enquanto o Google terminava a transição da sua tecnologia no YouTube, surgiram denúncias sobre como vídeos de conteúdo extremo começaram a ganhar audiência na plataforma – muitos deles, inclusive, recomendados a crianças. Em 2017, pesquisadores descobriram uma rede de produtores de conteúdo que fazia vídeos com conteúdo bizarro para crianças: afogamentos, pessoas enterradas vivas e outros tipos de violência eram empacotados com música e personagens infantis.

Alguns pesquisadores, como a americana Zeynep Tufekci, escreveram sobre como o YouTube estava lhe recomendando conteúdos da extrema direita americana após ela ter visto um único vídeo de Donald Trump. No Brasil não é diferente. Basta assistir a um vídeo de extrema direita que as recomendações vão garantir que você se aprofunde cada vez mais no ódio:

A radicalização acontece muito mais à direita do que à esquerda. Primeiro porque os produtores de conteúdo conservadores souberam bem agregar pautas polêmicas e teorias conspiratórias que já faziam sucesso na internet, como o criacionismo. Além disso, há uma coerência em suas pautas – os assuntos em comum ajudam a alavancar a audiência de forma mútua. Já a esquerda, além de ter uma pauta mais fragmentada que nem sempre se conversa – há o feminismo, a luta antirracista, os marxistas etc –, não conseguiu surfar a onda das polêmicas de internet.

Guillaume Chaslot, que é ex-funcionário do Google e hoje trabalha em uma fundação para a transparência de algoritmos, tem argumentado desde 2016 que a plataforma de recomendações do YouTube foi decisiva nas eleições de Trump, espalhando notícias falsas e teorias da conspiração. Segundo ele, o algoritmo vendido como neutro pelo Google ajudou a garantir audiência para vários vídeos conspiratórios, como um em que Yoko Ono supostamente admitiria ter tido um caso com Hillary Clinton nos anos 1970 e outro sobre uma falsa rede de pedofilia operada pelos Clinton.

O impacto desse tipo de conteúdo, porém, não é fácil de ser medido – a fórmula dos algoritmos é mantida em segredo pela empresa, ou seja, não dá para saber exatamente quais são os critérios que determinam o peso de cada característica no processo de decisão sobre qual vídeo indicar.

Esse sistema cria uma rede interligada – que, em conjunto, fica mais poderosa. Analisando mais de 13 mil canais de extrema direita no YouTube, Jonas Kaiser, pesquisador do Berkman Klein Center de Harvard, percebeu que elas estão conectadas internacionalmente dentro do YouTube, especialmente por conta do compartilhamento de vídeos com idéias extremistas. É uma rede fértil para circular a ideia de que políticas afirmativas para negros são parte de uma conspiração para acabar com a raça branca ocidental, por exemplo, o delírio de que vacinas são parte de um plano para acabar com determinadas populações em um experimento ou até a história de que as eleições brasileiras estariam em risco por uma suposta fraude nas urnas eletrônicas.

Os dados levantados por Kaiser mostram que o esquema de recomendação do YouTube “conecta diversos canais que poderiam estar mais isolados sem a influência do algoritmo, ajudando a unir a extrema direita”, ele escreve.

Não é por acaso que o teor conspiratório dos vídeos dos EUA é bem parecido com as redes de outros países: quase sempre envolve vacinas, terraplanismo, pedofilia e uma suposta organização internacional de esquerda sedenta por tomar o poder.

No Brasil, o cenário não é muito diferente. Temos a nossa própria rede de influenciadores de extrema direita, catapultados para a fama com a ajuda do algoritmo do YouTube. Nando Moura, com quase três milhões de seguidores, já fez vídeos defendendo a existência da cura gay. Outro influenciador, Diego Rox, defende para seus quase um milhão de seguidores a existência da Ursal. Todos recomendados por Jair Bolsonaro, que se beneficia da popularização de teorias conspiratórias de extrema direita.

Recentemente o Google reconheceu o problema. A empresa disse que passaria a sinalizar vídeos que espalhassem desinformação e exibiria, junto com eles, conteúdo da Wikipedia, em uma medida que pareceu um pouco desesperada. E não ataca a raiz do problema: seu modelo exploratório de negócios, uma herança da televisão.

A verdade é que o YouTube é um grande laboratório de machine learning, onde os seres humanos são as cobaias. Resta saber qual é o real impacto do experimento no exercício da liberdade de escolha e expressão. O problema é que eu desconfio que algo não está dando muito certo.

 

Por Yasodara Córdova

*Do Intercept Brasil