O responsável pela seleção não é quem produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook. Ou o TikTok.
Pedro Doria*
A Suprema Corte americana começou a analisar um caso muito difícil, que poderá mudar para sempre a cara da internet. Os pais de Nohemi Gonzalez, uma universitária de 23 anos que morreu num ataque terrorista em Paris, estão processando o YouTube. Seus advogados alegam que os três responsáveis pelo ataque à casa de shows Bataclan, em 2015, foram radicalizados após assistirem a uma série de vídeos produzidos pelo Estado Islâmico (EI) e recomendados pelo site.
A praxe da Corte americana é escolher os casos que julgará. Ela não é obrigada a aceitar nenhum, mas, sempre que considera haver uma questão constitucional importante, entra no debate. Os advogados submetem aos nove juízes seus argumentos por escrito e, depois, são convidados a uma ou mais sessões de sustentação oral. É quando os ministros têm a oportunidade de compreender melhor como cada lado vê o tema em debate. A primeira sessão foi na última terça-feira.
O que está sendo testado é a Seção 230 da Lei de Decência nas Comunicações, aprovada pelo Congresso e sancionada pelo presidente Bill Clinton, em 1996. É a lei que rege a internet no país desde então. Naquela época, quando a indústria digital no Vale do Silício se concentrava ainda em hardware e software, e a internet não passava de promessa, a Seção 230 possibilitou o desenvolvimento da rede. Em essência, definiu que uma empresa com presença na web não poderia ser responsabilizada legalmente pelo que dizem usuários que publicam em seus sites. Em 1996, poucos sites ofereciam espaço a comentários. Havia também espaços de discussão, fóruns, começando a se popularizar. Não existiam ainda blogs, muito menos redes sociais. Não havia algoritmos de recomendação.
Este é o argumento dos advogados da família Gonzalez: a lei pode proteger o YouTube de qualquer coisa que o EI tenha decidido publicar, mas a recomendação por algoritmo é diferente. A partir do momento em que o YouTube pinça um vídeo específico dentre milhões para sugerir a quem assiste, aí o exercício de expressão não é mais dos terroristas. O YouTube, como qualquer outro serviço baseado em algoritmos, se exprime por meio das escolhas de conteúdo que faz. O responsável pela seleção não é quem produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook. Ou o TikTok.
Alguns ministros expressaram em suas perguntas dúvidas a respeito desse argumento. Afinal, mecanismos de seleção de conteúdo baseados em algoritmos tornaram a internet viável. Foi a revolução que o Google produziu quando apresentou seu sistema de buscas ainda no final do século passado. Havia outros sites de busca que apontavam para os locais na rede onde as palavras-chave estavam presentes. O Google, porém, fazia mais que oferecer uma lista de centenas ou milhares de links. Usava um algoritmo para recomendar hierarquicamente os melhores resultados de busca.
A internet se tornou útil ali.
Tornar as empresas responsáveis pelo que seus algoritmos recomendam, quiseram saber os ministros, não poderia abrir uma imensa onda de processos que trariam impactos econômicos inimagináveis? Afinal, a rede se ergue sobre tais algoritmos.
A pergunta que os juízes da Suprema Corte americana parecem fazer é onde está a linha divisória. Por óbvio, outras indústrias são responsáveis pelos danos que suas decisões internas produzem. Quando falamos de algoritmos, a partir de que momento as gigantes da tecnologia passam a ser responsáveis? A Suprema Corte tomará uma decisão neste ano — e ela pode ser até não decidir nada. Por enquanto.
*O Globo
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação e reflexão de qualidade e independência.
Em uma decisão de censura aos canais estatais russos, o Google bloqueou as agências Sputnik e RT dentro da plataforma YouTube na última sexta-feira (11), como uma represália à operação especial da Rússia na Ucrânia.
Jornalistas e associações brasileiras que defendem a liberdade de imprensa repudiaram o movimento de retaliação. Em nota, a Sputnik Brasil classificou as medidas de estrangulamento do acesso por parte das plataformas Google, Twitter e Meta (que detém o Facebook, o Instagram e o WhatsApp) como “uma caça às bruxas em grande escala”.
Além disso, o Twitter Brasil rotulou a conta pessoal de um jornalista da Sputnik Brasil com os dizeres “Russia state-affiliated media” (mídia afiliada ao Estado da Rússia, em tradução livre), o que pode ser caracterizado como uma perseguição personalista a um profissional da imprensa.
“O Twitter rotulou meu perfil pessoal como ‘mídia estatal russa’ argumentando que minha página particular na rede social é controlada pelo governo russo — o que é mentira. Tenho um perfil nessa rede há muitos anos e uso a página para divulgar meu trabalho assim como para me divertir e emitir opiniões diversas — da mesma forma que qualquer usuário comum”, disse o repórter, que preferiu não se identificar por temer um número ainda maior de represálias.
Ele argumenta que se trata de uma medida injusta e que, na sua opinião, essa política cria um clima de medo e de perseguição contra jornalistas. “Há casos contra jornalistas independentes em outros países relatados na própria plataforma”, desabafou.
Site da Sputnik é tirado do ar na Polônia
O repórter acrescentou, ainda, que a rede social ofereceu um e-mail para contato em caso de dúvidas, mas o endereço retorna uma mensagem padrão direcionando a uma página de reclamações sem opções viáveis para o caso.
Críticas à rotulação do Twitter A retaliação foi notada por usuários do Twitter e pela jornalista Rita Lisauskas, colunista do jornal Estadão e da Rádio Eldorado, que criticou publicamente a decisão da rede social.
notícia falsa ou enviesada. Veja o print abaixo. São os algoritmos que decidem o que é e o o não é confiável? pic.twitter.com/GNEdYbaXUC
“Quando baniram o Trump, era uma pessoa específica comprovadamente espalhando mentiras e discurso de ódio. Acho que a plataforma estava certa em agir. Agora, você sinalizar que uma mídia é russa (e sabemos que é) da mesma forma (estética) que você sinaliza que uma notícia é falsa ou enviesada, você está semioticamente fazendo com que as pessoas desconfiem daquele veículo. E a matéria tá perfeita. Vai ter indicação que a BBC é ‘mídia estatal inglesa’? Não vai, né? Qual o problema de a Sputnik ser portal russo?”, comentou, respondendo a uma pergunta de um seguidor.
Diferentemente de outros veículos vinculados a governos, caso da alemã Deutsche Welle, da britânica BBC, ou da italiana Ansa, as mídias estatais russas vêm sofrendo uma série de restrições no mundo todo nas últimas semanas.
O conjunto de medidas restritivas começou no ano passado, mas se intensificou após a Rússia começar a operação especial na Ucrânia. No final de fevereiro, o Facebook e o Instagram bloquearam o acesso a várias contas que pertencem à Sputnik em diversos países europeus.
As medidas ocorreram um dia após a União Europeia anunciar o bloqueio das transmissões da RT e da Sputnik nos países do bloco, em meio às tensões entre Rússia e Ucrânia.
A página do Instagram já está indisponível para membros da equipe da Sputnik nos seguintes países: Áustria, Bélgica, Bulgária, Croácia, Chipre, Dinamarca, Estônia, Finlândia, França, Alemanha, Hungria, Grécia, Irlanda, Itália, Letônia, Lituânia, Luxemburgo, Malta, Holanda, Polônia, Portugal, Romênia, Eslováquia, Eslovênia, Espanha, Suécia e República Tcheca.
No começo de março, a gigante norte-americana Apple anunciou o banimento em sua plataforma dos aplicativos da RT e da Sputnik fora da Rússia. A empresa norte-americana também baniu a venda de produtos na Rússia.
Já no dia 2, os 30 sites da agência Sputnik ao redor do mundo foram alvos de um ataque cibernético do tipo DDoS, que gerou instabilidade nas edições locais. Em seguida, o órgão regulador de imprensa da Alemanha publicou, no último dia 5, uma declaração em que aplica uma multa de 25.000 euros (R$ 138.344,63) ao canal RT, que deve ser paga obrigatoriamente até 16 de março.
No início daquela semana, a UE proibiu a RT de transmitir no bloco sobre a operação militar especial da Rússia na Ucrânia.
“Isso não é mais um ato de censura ou uma política de dois pesos e duas medidas, é uma caça às bruxas em grande escala, uma guerra de informação completa contra a mídia russa desencadeada pelo Ocidente. A agência Sputnik já respondeu ao chefe da Comissão Europeia, que anunciou a decisão de proibir os sites e a rádio Sputnik e o canal de TV RT na UE, propondo estender as sanções a toda a Internet: ‘Propomos que a União Europeia não se conforme com medidas pequenas, mas proíba imediatamente a Internet inteira'”, disse a agência em comunicado.
Repúdio das associações jornalísticas
Em conversa com a Sputnik Brasil, as maiores entidades da defesa dos direitos do livre exercício do jornalismo condenaram as retaliações sofridas pelas agências, além da estigmatização dos profissionais que nelas trabalham.
“A Associação Brasileira de Imprensa (ABI) repudia toda e qualquer tentativa de censura à liberdade de expressão e de opinião”, disse a organização, por meio de uma nota encaminhada pelo vice-presidente Cid Benjamin.
A ABI informou ainda que está estudando possibilidades de medidas legais que a Sputnik Brasil poderia tomar, eventualmente, em relação a essas plataformas. Já a presidente da Federação Nacional dos Jornalistas (FENAJ), Maria José Braga, apontou parcialidade por parte do Google, do Twitter e do Facebook.
“Essas grandes plataformas digitais estão agindo parcialmente, tomando um lado, que é o lado de demonizar a Rússia como se houvesse uma ação individual do país em relação à Ucrânia, sem levar em conta a violação de acordos que levaram ao conflito. Infelizmente, as plataformas fogem do debate público, inclusive quanto à moderação transparente de conteúdo. É censura prévia e direcionamento de conteúdo, segundo interesses que elas próprias passam a defender”, criticou ela.
A FENAJ defende, ainda, uma regulação pública para moderação de conteúdos com absoluta transparência para essa moderação.
“As plataformas não podem ter esse poder absurdo para moderação. Elas precisam ser reguladas pelos Estados nacionais porque estão trabalhando acima dos Estados nacionais. Há um abuso na atuação das grandes plataformas, e elas estão atendendo os interesses dos Estados Unidos e da OTAN. Isso fica ainda mais evidente quando a retaliação mira em profissionais qualificados da imprensa”, alertou Braga.
O que dizem Google, Twitter e Meta
Procuradas pela agência Sputnik Brasil, as plataformas emitiram comunicados genéricos sobre a decisão. O Twitter — que rotulou um profissional da agência no Brasil — não respondeu o motivo pelo qual marcou a conta pessoal do jornalista.
“Dando continuidade ao nosso trabalho de oferecer mais contexto e clareza à forma como as pessoas interagem com meios de comunicação afiliados a Estados ou governos, continuamos revisando e atualizando a lista destas contas. No contexto da guerra na Ucrânia, aplicamos o rótulo a contas que se enquadram em nossa política de mídia governamental e afiliada ao Estado – uma política que está em vigor desde agosto de 2020. Também adicionamos rótulos a publicações que compartilham links para sites de mídias afiliados ao Estado russo. Mais informações sobre a atuação do Twitter na guerra da Ucrânia podem ser encontradas aqui”, disse a rede social em resposta aos questionamentos.
Perguntados o motivo que levou à decisão e o porquê de outras agências estatais não receberem o mesmo selo — a britânica BBC e a alemã Deutsche Welle, por exemplo —, o Twitter se recusou a responder.
“Por enquanto, é o que temos sobre o assunto. Se tiver algo novo, entramos em contato”, resumiu a plataforma.
O Facebook, por sua vez, não respondeu às perguntas feitas: apenas direcionou um link resumindo o posicionamento da empresa Meta, que controla a plataforma, o Instagram e o WhatsApp.
“A resposta para as suas perguntas está na seção: ‘Transparência sobre veículos de imprensa estatais’, no link que segue”, resumiram.
Questionados, em seguida, por que tal mensagem não se aplicava para outras emissoras estatais europeias, declararam que não tinham mais nada a compartilhar.
Já o YouTube, site de vídeos controlado pelo Google, se manifestou por intermédio de um comunicado.
“Na semana passada, tomamos uma série de ações para impedir a disseminação de desinformação e interromper campanhas de desinformação on-line. Isso inclui reduzir as recomendações, pausar a monetização e limitar o alcance da mídia financiada pelo Estado russo em nossos serviços. Continuamos monitorando as últimas orientações e atualizações de sanções, à medida que a situação evolui”, disse o texto.
“As Diretrizes da Comunidade do YouTube proíbem conteúdo que negue, minimize ou banalize eventos violentos documentados, portanto conteúdos sobre a invasão russa à Ucrânia que violam essa política serão removidos. Sob a mesma perspectiva, o YouTube também bloqueou globalmente canais associados a veículos de comunicação financiados pelo governo russo”, finalizou a nota.
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso.
Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Segundo a plataforma, o conteúdo podia causar danos físicos graves ou morte”
O Youtube removeu o vídeo “A nocividade do uso de máscaras”, da Fundação Alexandre de Gusmão (Funag), órgão ligado ao Ministério de Relações Exteriores. Segundo a plataforma, o conteúdo podia “causar danos físicos graves ou morte”.
Alinhada com Jair Bolsonaro (sem partido), a Funag tem realizado uma série de seminários questionando evidências científicas e tem como plano de fundo a pandemia do novo coronavírus.
O vídeo excluído pelo Youtube, “A nocividade do uso de máscaras” fazia parte do seminário virtual “A conjuntura internacional no pós-coronavírus” exibido no dia 3 de setembro. Na gravação, o palestrante Carlos Ferraz afirmou, sem embasamento científico, que máscaras fazem mal à saúde de pessoas saudáveis.
“A nocividade do uso de máscaras” fazia parte do seminário virtual “A conjuntura internacional no pós-coronavírus” exibido no dia 3 de setembro. Nele, o palestrante Carlos Ferraz dizia, sem apresentar evidências científicas, que máscaras fazem mal à saúde de pessoas saudáveis.
“A máscara não só é inócua no combate à pandemia, mas é também nociva, causa problemas de saúde”, afirmava o palestrante que é professor da Universidade Federal de Pelotas. Como já revelou o UOL, a informação é falsa: o uso correto das máscaras reduz a quantidade de partículas virais expelidas e, portanto, ajuda a conter o avanço da pandemia.
*Com informações do Uol
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Caixa Econômica: Agência 0197 Operação: 013 Poupança: 56322-0 Arlinda Celeste Alves da Silveira CPF: 450.139.937-68 Agradecemos imensamente a sua contribuição
Comissão aprova ainda convite para jornalistas responsáveis pelas reportagens que denunciaram o esquema de compra de pacotes de envios de disparos em massa.
A Comissão Parlamentar Mista de Inquérito (CPMI) da Fake News aprovou nesta quarta-feira (25) os pedidos para a convocação de empresas de internet, marketing e telefonia. Entre elas estão a Quickmobile, Croc Services, SMS Market e Yacows, todas elas prestaram serviços à campanha do presidente Jair Bolsonaro em 2018.
Também foram convocados os responsáveis pelas empresas CA Ponte e Enviawhatsapp. Segundo revelações da Folha de S.Paulo, essas empresas contrataram agência de marketing na Espanha para fazer disparos de mensagens políticas em massa via WhatsApp em favor do então candidato Jair Bolsonaro.
A CPMI também aprovou o convite para chamar os jornalistas da Folha Patrícia Campos Mello e Rubens Valente, responsáveis por uma série de reportagens denunciando o esquema de compra de pacotes de envios de disparos de mensagens em massa por empresários em favor de Bolsonaro. A ação é proibida pela Justiça Eleitoral brasileira.
Foram convocados ainda a assessora do Palácio do Planalto Rebecca Félix da Silva Ribeiro Alves. Em agosto, ela afirmou em depoimento ao Tribunal Superior Eleitoral (TSE) que trabalhou durante a campanha eleitoral na casa do empresário Paulo Marinho.
Recentemente, Marinho disse à GloboNews que sua casa se tornou um escritório de retransmissão de informações falsas produzidas por voluntários durante a corrida eleitoral.
Os representantes no Brasil do Google, Facebook, Twitter, WhastApp e YouTube também foram convocados. Ao todo foram analisados 86 pedidos de requerimentos, entre convites e convocações.
Tentativa de obstrução
Durante a votação dos pedidos, a base do governo federal tentou obstruir os trabalhos da comissão. O presidente da CPMI, senador Angelo Coronel (PSD-BA) criticou a manobra.
“Esta comissão não visa à perseguição de ninguém. Esta comissão visa proteger a sociedade brasileira de fake news, de perfis falsos. Fico indignado quando vejo pessoas trazerem a culpa antecipada para o colo”, disse o parlamentar.
Início da comissão mostra presidente da CPI com mão de ferro e tem convocação do WhatsApp.
O vereador carioca Carlos Bolsonaro (PSL), ghost writer do pai presidente nas redes sociais, está na mira da CPI das Fake News, a investigação parlamentar da rede de mentiras via web. A convocação dele para depor está sendo preparada discretamente pela relatora da CPI, a deputada baiana Lídice da Mata (PSB), com congressistas da oposição ao governo.
Convocar, e não convidar, deverá ser uma regra na comissão, conforme acerto feito na primeira reunião da CPI, em 10 de setembro. Foi uma sugestão do senador por Sergipe Alessandro Vieira, do ex-PPS. Delegado de polícia, ele disse que sua experiência profissional sugere que convidar depoentes não adianta.
Ele fez a observação quando a comissão discutia se convocaria representantes no Brasil das empresas WhatsApp, Facebook, Instagram, Google, Youtube e Twitter. A convocação foi proposta pela deputada Luizianne Lins, PT do Ceará. E foi aprovada. A petista quer saber das empresas como são feitos, e quem paga, disparos maciços de conteúdo.
Numa demonstração do apuro que o governismo sente na CPI, Flavio Bolsonaro, o irmão senador de Carlos, quis proteger o WhatsApp da convocação. Claro: a campanha de seu pai deitou e rolou nessa rede social na eleição de 2018, na opinião de Lídice da Mata, que diz: “Não tenho dúvida de que a eleição brasileira foi muito influenciada por fake news. Como é que nasceu o kit gay?”.
Flavio é da CPI. Outros membros do PSL, o partido bolsonarista, são os deputados Filipe Barros (PR), Caroline de Toni (SC) e Carla Zambelli (SP). A bancada pesselista tentou impedir a votação das convocações dos representantes das empresas de rede sociais, mas foi atropelada pelo presidente da comissão, o senador Ângelo Coronel, do PSD da Bahia.
O senador tem de fato “coronel” no nome, mas sua postura na primeira reunião pareceu a de alguém com tal “patente”. Foi linha mais do que dura e inquietou gente interessada em que a CPI “pegue” Jair Bolsonaro: será que Ângelo foi uma boa escolha para presidir a comissão? Se insistir em agir com mão muito pesada, suas decisões serão passíveis de anulação judicial ou congressual.
Ângelo requereu o apoio à CPI de um delegado e de um agente da Polícia Federal. Também esteve com a presidente do Tribunal Superior Eleitoral, Rosa Weber, e recebeu um resumo do grupo de trabalho que o TSE montou sobre fake news em 2018. As atas das reuniões do grupo foram tachadas de secretas por cinco anos e só virão a público em 2023, decisão do antecessor de Rosa, Luiz Fux.
No TSE há quatro ações de cassação da chapa presidencial eleita em 2018, Jair Bolsonaro-Hamilton Mourão, movidas pelos advogados de Fernando Haddad. Duas tratam de algum modo de notícias mentirosas e podem ser abastecidas por descobertas da CPI. Um dia após a primeira reunião da CPI, alguns membros da comissão foram buscar informações sobre as ações com os advogados petistas.
Membro da CPI e um dos vice-líderes do governo no Senado, Eduardo Gomes, do MDB do Tocantins, deu uns conselhos à bancada do PSL no dia da primeira reunião da comissão. Carta Capital testemunhou: mais do que brigar a cada votação na comissão, o bolsonarismo deveria tentar enquadrar Ângelo Coronel via PSD, partido meio governista, e tentar derrubar a CPI na Justiça.
Felipe Barros já havia tentado, em vão, um mandado de segurança no Supremo Tribunal Federal (STF) contra a instalação da CPI. O juiz Ricardo Lewandowski negou a liminar no início de agosto. O próprio Eduardo Gomes tinha tentado coisa parecida perante o presidente do Congresso, senador Davi Alcolumbre, do DEM do Amapá, igualmente sem sucesso.
Para desespero dos procuradores da Lava Jato, mas principalmente de Deltan Dallagnol e Sergio Moro, The Intercept Brasil anuncia o vazamento de novos áudios nesta segunda-feira (26), às 12h no canal do youtube.
Resolvi fazer um experimento. Com um navegador recém instalado, abri o YouTube e cliquei em um vídeo sobre as máquinas de forjamento de martelo mais rápidas e pesadas que existem. Deixei o sistema rodar mais 13 vídeos na sequência, assistindo aos vídeos, sem deixar likes ou fazer login. A ideia era ver quais eram as sugestões que o YouTube recomendava depois do primeiro.
Após passar por vídeos de halterofilismo, corte de árvores e muitos anúncios de ferramentas pesadas, equipamentos e carne para churrasco e outros, o YouTube me recomendou um vídeo sobre como fazer munição para uma arma semi-automática.
As recomendações e os anúncios, voltados para quem exalta o estilo de vida do Rambo, mostram que os algoritmos entenderam que, porque eu cliquei em um único vídeo de máquinas pesadas, eu sou homem e gosto de armas e churrasco.
Essas conexões que os algoritmos fizeram vêm dos dados que o YouTube analisou sobre meu comportamento no site e sobre os vídeos com os quais interagi, seja clicando sobre o vídeo, pausando, aumentando o volume ou até mexendo o mouse sobre as recomendações. Tudo é monitorado. As métricas que escolhem quais vídeos serão recomendados são baseadas, principalmente, na possibilidade de um vídeo ser assistido pelo usuário. Ela faz parte de um mecanismo sofisticado de inteligência que tem um objetivo principal: fazer com que você passe o máximo de tempo possível no YouTube.
Como conteúdos extremistas naturalmente chamam mais atenção, a plataforma cria uma bolha conectando vídeos bizarros. Assim, usuários mergulham cada vez mais fundo num assunto. Não por acaso, da fabricação de martelos eu fui levada pelo algoritmo para um vídeo sobre munição e armas em apenas 13 passos. A mesma coisa acontece com vídeos relacionados à política. Recomendação ao extremo
Em 2015, os usuários do YouTube subiam 400 horas de vídeo por minuto. A maior parte desse conteúdo é criada de forma amadora. No site, usuários de todo o mundo gastam mais de um bilhão de horas assistindo a vídeos todos os dias.
Apesar de ter um serviço de assinaturas, o YouTube Premium, o serviço ganha dinheiro mesmo é com anúncios. Para sustentar a infraestrutura necessária – e garantir que o modelo continue crescendo – o site precisa ser gigante. Como na velha TV aberta, quanto mais pessoas assistindo a um programa, mais gente vê os comerciais durante os intervalos.
Para manter o interesse das pessoas nos canais – e garantir que elas sejam expostas a mais e mais anúncios –, a plataforma usa algoritmos para organizar o conteúdo e circular vídeos novos, gerando uma demanda diária por novo material. Esses algoritmos usam uma combinação de dados para recomendar vídeos que visam, literalmente, prender e viciar as pessoas.
Quando o sistema de recomendações foi lançado, em 2010, ele deu resultados imediatos: começou a ser responsável por 60% dos cliques dos usuários, segundo artigo científico escrito pelos cientistas do Google no mesmo ano.
Em 2015, com a liderança do time Google Brain, a empresa começou usar aprendizado de máquina – conhecido em inglês como machine learning – para melhorar o sistema de recomendações. Em 2017, o YouTube começou a rodar tudo sobre uma sofisticada plataforma de inteligência artificial, o Tensorflow.
Estava completa a transição para um sistema que aprende sem ser “supervisionado” por humanos – tecnologia também chamada de unsupervised deep learning, ou aprendizado profundo sem supervisão. Esses algoritmos escolhem quais vídeos vão para a barra de recomendados, quais aparecem na busca, qual vídeo toca a seguir quando no modo reprodução automática (o autoplay) e também montam a homepage dos usuários no YouTube. Sim, cada vez que você abre sua home ela está diferente. Ela foi customizada pelas máquinas para que você assista mais e mais vídeos.
Para tomar as decisões por você, os algoritmos associam significados que eles mesmos aprendem em etapas, de modo a filtrar e combinar categorias para chegar em um conjunto de vídeos ou anúncios para recomendar. Primeiro, dão um significado para um vídeo segundo suas características. Depois, combinam esse significado com mais dados, como por exemplo a quantidade de horas que um usuário gasta assistindo determinados vídeos com significados semelhantes. As categorias vão sendo combinadas pelos algoritmos para encontrar as recomendações que o usuário tem mais possibilidade de clicar e assistir:
O site gera essas recomendações a partir das suas interações, nas informações dos vídeos e nos dados dos usuários. Isso engloba tudo que você faz no navegador: parar o vídeo, colocar o mouse por cima de determinada imagem, aumentar ou diminuir o volume, quais abas você está navegando quando está vendo vídeos, com quem você interage nos comentários e que tipo de comentários faz, se deu like ou dislike e até mesmo a taxa de cliques em recomendações etc.
Como a interação não é só baseada em likes, o YouTube valoriza também os comentários, atribuindo valores de positivo e negativo às conversas. Por causa disso, o feedback do usuário sobre o vídeo é avaliado e pesa na fórmula que calcula a possibilidade da pessoa assistir aos outros vídeos. Mesmo sem dar like, você entrega os seus dados e tem sua interação monitorada o tempo todo.
Os autores dos vídeos sabem muito bem como funciona essa lógica. Os anunciantes também. Os youtubers têm à sua disposição a plataforma para criadores do YouTube, o YouTube Studio, que fornece métricas e informações sobre a audiência. Assim, existe um incentivo para os produtores fazerem vídeos cada vez mais extremos e bizarros para prender a audiência o máximo possível. Isso explica um pouco a obsessão da internet pela banheira de Nutella, e também ajuda a entender como se elegeram tantos youtubers interconectados nas últimas eleições.
Como conteúdo radical dá dinheiro, por conta dos anúncios, extremistas usam também outras ferramentas para incentivar a formação de bolhas e atrair cada vez mais gente. No Brasil, donos de canais de conteúdo extremo e conspiratório, como a Joice Hasselmann, por exemplo, costumam divulgar seu número do WhatsApp, viciando as pessoas em seus conteúdos com base na exploração dessa relação de proximidade ou intimidade. Redes de extrema-direita
Enquanto o Google terminava a transição da sua tecnologia no YouTube, surgiram denúncias sobre como vídeos de conteúdo extremo começaram a ganhar audiência na plataforma – muitos deles, inclusive, recomendados a crianças. Em 2017, pesquisadores descobriram uma rede de produtores de conteúdo que fazia vídeos com conteúdo bizarro para crianças: afogamentos, pessoas enterradas vivas e outros tipos de violência eram empacotados com música e personagens infantis.
Alguns pesquisadores, como a americana Zeynep Tufekci, escreveram sobre como o YouTube estava lhe recomendando conteúdos da extrema direita americana após ela ter visto um único vídeo de Donald Trump. No Brasil não é diferente. Basta assistir a um vídeo de extrema direita que as recomendações vão garantir que você se aprofunde cada vez mais no ódio:
A radicalização acontece muito mais à direita do que à esquerda. Primeiro porque os produtores de conteúdo conservadores souberam bem agregar pautas polêmicas e teorias conspiratórias que já faziam sucesso na internet, como o criacionismo. Além disso, há uma coerência em suas pautas – os assuntos em comum ajudam a alavancar a audiência de forma mútua. Já a esquerda, além de ter uma pauta mais fragmentada que nem sempre se conversa – há o feminismo, a luta antirracista, os marxistas etc –, não conseguiu surfar a onda das polêmicas de internet.
Guillaume Chaslot, que é ex-funcionário do Google e hoje trabalha em uma fundação para a transparência de algoritmos, tem argumentado desde 2016 que a plataforma de recomendações do YouTube foi decisiva nas eleições de Trump, espalhando notícias falsas e teorias da conspiração. Segundo ele, o algoritmo vendido como neutro pelo Google ajudou a garantir audiência para vários vídeos conspiratórios, como um em que Yoko Ono supostamente admitiria ter tido um caso com Hillary Clinton nos anos 1970 e outro sobre uma falsa rede de pedofilia operada pelos Clinton.
O impacto desse tipo de conteúdo, porém, não é fácil de ser medido – a fórmula dos algoritmos é mantida em segredo pela empresa, ou seja, não dá para saber exatamente quais são os critérios que determinam o peso de cada característica no processo de decisão sobre qual vídeo indicar.
Esse sistema cria uma rede interligada – que, em conjunto, fica mais poderosa. Analisando mais de 13 mil canais de extrema direita no YouTube, Jonas Kaiser, pesquisador do Berkman Klein Center de Harvard, percebeu que elas estão conectadas internacionalmente dentro do YouTube, especialmente por conta do compartilhamento de vídeos com idéias extremistas. É uma rede fértil para circular a ideia de que políticas afirmativas para negros são parte de uma conspiração para acabar com a raça branca ocidental, por exemplo, o delírio de que vacinas são parte de um plano para acabar com determinadas populações em um experimento ou até a história de que as eleições brasileiras estariam em risco por uma suposta fraude nas urnas eletrônicas.
Os dados levantados por Kaiser mostram que o esquema de recomendação do YouTube “conecta diversos canais que poderiam estar mais isolados sem a influência do algoritmo, ajudando a unir a extrema direita”, ele escreve.
Não é por acaso que o teor conspiratório dos vídeos dos EUA é bem parecido com as redes de outros países: quase sempre envolve vacinas, terraplanismo, pedofilia e uma suposta organização internacional de esquerda sedenta por tomar o poder.
No Brasil, o cenário não é muito diferente. Temos a nossa própria rede de influenciadores de extrema direita, catapultados para a fama com a ajuda do algoritmo do YouTube. Nando Moura, com quase três milhões de seguidores, já fez vídeos defendendo a existência da cura gay. Outro influenciador, Diego Rox, defende para seus quase um milhão de seguidores a existência da Ursal. Todos recomendados por Jair Bolsonaro, que se beneficia da popularização de teorias conspiratórias de extrema direita.
Recentemente o Google reconheceu o problema. A empresa disse que passaria a sinalizar vídeos que espalhassem desinformação e exibiria, junto com eles, conteúdo da Wikipedia, em uma medida que pareceu um pouco desesperada. E não ataca a raiz do problema: seu modelo exploratório de negócios, uma herança da televisão.
A verdade é que o YouTube é um grande laboratório de machine learning, onde os seres humanos são as cobaias. Resta saber qual é o real impacto do experimento no exercício da liberdade de escolha e expressão. O problema é que eu desconfio que algo não está dando muito certo.