Categorias
Opinião

Lula, algoritmos, Zé Dirceu, projeto de desenvolvimento e cultura nacional

Não é de hoje que Lula vem criticando a manipulação dos algoritmos nas redes sociais para ditar um sistema de mercado. Lula está coberto de razão quando diz que os algoritmos estão desumanizando as relações no planeta.

A meu ver, essa foi a declaração mais importante dada por Lula esta semana, até porque não há regime democrático possível com a ditadura dos algoritmos.

E, se Lula defende a regulamentação dessa esbórnia virtual, que tem potencial explosivo com danos perigosos à sociedade, Lula foi ao ponto.

Estamos vendo as consequências danosas, trágicas e até fatais que a disseminação do ódio vem provocando no Brasil, via redes sociais que utiliza os algoritmos, mais especificamente nas escolas.

Zé Dirceu, numa brilhante entrevista concedida a Kennedy Alencar, foi taxativo e extremamente objetivo quando disse que o Brasil precisa de um novo pacto de desenvolvimento e, para tanto, precisa olhar para o futuro, crescer 100 anos em 10, fazer investimento pesado em educação, sobretudo no que se refere à tecnologia.

Seja como for, tanto a fala de Lula sobre os algoritmos e a de Zé Dirceu sobre um novo pacto de desenvolvimento, dependem de um projeto nacional de cultura, como foi nos governos Getúlio Vargas e Juscelino Kubitschek.

Sim, porque há um aspecto grave que abrange os progressistas brasileiros, não se discute mais, como no passado, a cultura nacional, fato comum aos grandes pensadores do Brasil.

As consequências disso são danosas, e os impactos resultantes dessa alienação intelectual tem sérias implicações que deixam sequelas que, por sua vez, impactam na própria forma de se pensar o país. Pois é a cultura, não a cultura como produto de mercado ou do neocolonialismo que o neoliberalismo impõe, mas a cultura que revela o povo brasileiro como ele é, sem visões segmentadas, sem contaminações estéticas, muitas vezes peçonhentas, mas sim a cultura que revela o Brasil profundo, extremamente vultuoso que dá a maior e  mais vibrante identidade ao povo.

Hoje, tanto faz o governo de direita ou de esquerda no que se refere à cultura, o assunto é um só, financiamento para produção cultural, o que, muitas vezes, de cultural nada tem, menos ainda com a identidade nacional e, ainda menos, com as manifestações espontâneas do povo brasileiro.

O fato é que a Lei Rouanet, criada pelo governo Collor, é trágica para o país, porque não se limita a ser algo isolado, a Lei Rouanet conseguiu algo pior, que foi impor sua conduta nefasta baseada em planilhas e interesses corporativos a todos os espaços institucionais de cultura. Tudo funciona na base de editais, numa falsa e absurda ideia de que isso representa democracia cultural quando, na verdade, é um mero escarro neoliberal.

É preciso entender a importância da Semana de Arte Moderna de 1922, liderada por Mário de Andrade e sua decisiva contribuição para o pacto nacional que buscava a modernização da própria indústria nacional.

Talvez, por eu ser de Volta Redonda, primeira cidade moderna do país e que teve a Companhia Siderúrgica Nacional (CSN) como marco da indústria de base, seja mais fácil compreender a importância da cultura num pensamento de um novo desenvolvimento nacional, já que foi parte da instalação da CSN nesta cidade, um projeto de cultura extremamente moderno que possibilitou um amálgama a partir da fusão promovida pela política cultural da usina oferecida aos filhos de operários como uma das formas de sociabilização mais efetivas de que se tem notícia no país.

O fato é que não há qualquer possibilidade do Brasil buscar um novo marco de desenvolvimento, sem que haja um novo pacto de identidade nacional.

Infelizmente, esse assunto está fora do radar dos pensadores progressistas do Brasil, pois os tecnocratas impuseram uma visão burra, mas nada displicente impondo uma visão acrítica na sociedade para que a financeirização da vida do povo fosse plena para benefício dos abutres da especulação, do rentismo e, assim, sabotadores do país como Roberto Campos Neto, do Banco Central, pudessem inviabilizar qualquer projeto de desenvolvimento nacional.

É urgente que a identidade nacional, através de amplos projetos nesse país, volte a ser convergência que os algoritmos que Lula, coerentemente, tanto critica, não deem o tom a partir de seu diapasão, a toda e qualquer relação humana no Brasil.

Ou seja, menos inteligência artificial e mais inteligência emocional.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação e reflexão de qualidade e independência.

Caixa Econômica Agência: 0197
Operação: 1288
Poupança: 772850953-6
PIX: 45013993768 – CPF

Agradecemos imensamente a sua contribuição

Categorias
Uncategorized

Precisamos do apoio de vocês para não sermos todos vítimas dos algoritmos

Recentemente, em entrevista na Bélgica, Lula falou dos algoritmos e dos riscos que eles representam para a democracia: “A gente não pode permitir que seja utilizada uma revolução como essa da digitalização para o mal. Eu não quero ser algoritmo, quero continuar sendo ser humano. Não quero ser teleguiado, quero ter sentimentos. Eu quero decidir o que faço, o que compro, em quem eu voto, e isso precisamos regulamentar. Para que alguns espertos e maldosos não tentem virar donos da humanidade através da manipulação de algoritmos.”

Lula sabe exatamente do que fala.

O problema do Facebook e seus algoritmos, por exemplo, é que ele escolhe o que você vai ler, mas sobretudo, o que ele acha que você não pode e não ler. Assim, acaba decidindo o que é mentira ou verdade a partir de seus interesses políticos e empresariais.

Esse tem sido o combustível da direita, não só no Brasil.

Por isso buscamos aqui no Antropofagista, uma linha de conduta o mais independente e livre possível.

Para tal tarefa precisamos do apoio dos nossos leitores.

Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso.

Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica

Agência: 0197

Operação: 1288

Poupança: 772850953-6

PIX: 45013993768 – CPF

Agradecemos imensamente a sua contribuição

Categorias
Uncategorized

Precisamos do apoio de vocês para não sermos todos vítimas dos algoritmos

Recentemente, em entrevista na Bélgica, Lula falou dos algoritmos e dos riscos que eles representam para a democracia: “A gente não pode permitir que seja utilizada uma revolução como essa da digitalização para o mal. Eu não quero ser algoritmo, quero continuar sendo ser humano. Não quero ser teleguiado, quero ter sentimentos. Eu quero decidir o que faço, o que compro, em quem eu voto, e isso precisamos regulamentar. Para que alguns espertos e maldosos não tentem virar donos da humanidade através da manipulação de algoritmos.”

Lula sabe exatamente do que fala.

O problema do Facebook e seus algoritmos, por exemplo, é que ele escolhe o que você vai ler, mas sobretudo, o que ele acha que você não pode e não ler. Assim, acaba decidindo o que é mentira ou verdade a partir de seus interesses políticos e empresariais.

Esse tem sido o combustível da direita, não só no Brasil.

Por isso buscamos aqui no Antropofagista, uma linha de conduta o mais independente e livre possível.

Para tal tarefa precisamos do apoio dos nossos leitores.

Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso.

Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica

Agência: 0197

Operação: 1288

Poupança: 772850953-6

PIX: 45013993768 – CPF

Agradecemos imensamente a sua contribuição

Categorias
Política

Apoie o Blog Antropofagista, ele precisa de você

Todos viram o tombo que o Facebook tomou na bolsa por impedir a livre circulação dos conteúdos, perdendo milhares e milhares de usuários na sua rede social e bilhões de dólares por conta dessa dispersão.

Como todos sabem, no Facebook os algoritmos definem quem vai ler o quê na rede.

Não para aí. O Facebook opta por uma política de censura sem qualquer aviso em que, do nada, simplesmente tira sua página do ar desrespeitando os titulares e, junto, 5.000 amigos que sequer sabem que a página foi tirada do ar pelo FB, como ocorreu com o Blog Antropofagista e seus administradores.

Por isso decidimos manter nossa página página pessoal com outro título e recomeçar, já que tínhamos nesse espaço a maior fonte de circulação e participação dos leitores do blog.

Assim, optamos por pedir socorro aos próprios leitores para que doem o que puderem a partir de R$ 1, podendo ser através do PIX ou conta bancária que seguem abaixo.

O apoio de nossos leitores é o que hoje garante existência do blog, já que ele não é patrocinado e conta somente com uma monetização ínfima. Portanto, o nosso modelo é na unha.

Afirmamos com muita convicção que somos um blog de esquerda e, por isso, insistimos para os que podem, juntar-se a nós com uma doação, para que possamos crescer e fazer e seguirmos na luta extremamente necessária e que nesse ano eleitoral possamos trabalhar mais e melhor.

Doando R$1 por dia (R$ 30,00 mês) e se puderem doem mais. Caso não possam, doem apenas R$ 1 que, somado a outros valores, fortalece e muito a nossa corrente.

Precisamos de todos.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica

Agência: 0197
Operação: 1288
Poupança: 772850953-6

PIX: 45013993768

Agradecemos imensamente a sua contribuição

Categorias
Mundo

‘Facebook papers’: quais são as acusações contra a gigante da tecnologia

Documentos internos revelados por ex-funcionária, e divulgado pela mídia americana, colocam empresa em meio a novo escândalo. Grupo acaba de mudar de nome, e agora se chama Meta.

O Facebook mudou o nome da empresa controladora do grupo, que reúne Instagram e WhatsApp, para Meta. A mudança aconteceu em meio ao escândalo de documentos internos vazados, um caso que ficou conhecido como “Facebook Papers”.

A estratégia de trocar o Facebook Inc. para Meta Plataforms Inc. é vista como uma tentativa de se afastar das recentes polêmicas, mas também está diretamente ligada com o projeto de metaverso da gigante de tecnologia, um ambiente virtual que promete criar todo um mundo tecnológico para convivência.

Durante a série de vazamentos, a empresa negou algumas das acusações, além de dizer que muitas das informações veiculadas foram tiradas do contexto.

Ao g1, a empresa disse que “a premissa central nestas histórias é falsa” e afirmou que tem mais de 40 mil pessoas “trabalhando para deixar as pessoas seguras”(veja mais explicações da empresa na reportagem).

  • Celebridades tratadas de forma diferente: em um sistema conhecido como XCheck (verificação cruzada), certos perfis, como o de esportistas e políticos, eram submetidos a regras diferentes sobre o conteúdo que poderiam postar.
  • Negligência diante de atos criminosos: funcionários relatam que a resposta da empresa era “fraca” diante de alertas relacionados a cartéis de droga e tráfico de pessoas operados na plataforma.
  • Instagram “tóxico”: uma pesquisa conduzida pela empresa apurou como o Instagram estava afetando adolescentes, mas não compartilhou resultados que sugeriam que a plataforma é um lugar “tóxico” para muitos jovens.
  • Algoritmos que incitam ódio: o Facebook tentou tornar plataforma mais saudável, mas ela ficou mais violenta. A empresa mudou o algoritmo em 2018 para aproximar usuários de seus amigos e familiares, mas identificou que a alteração teve o efeito contrário. Mark Zuckerberg teria resistido a fazer mudanças por entender que elas fariam usuários interagirem menos.
  • Demora para mudar falha conhecida: atraso para reverter o engajamento de postagens com o botão “raiva”, sabidamente relacionado a conteúdos “tóxicos” e com desinformação.
  • Dúvidas sobre usuários ativos: uma apresentação interna sugeriu que a empresa não sabia a quantidade de usuários ativos. No documento, executivos afirmaram que o fenômeno de usuários com várias contas era “muito prevalente” entre os novos cadastros. A empresa teria analisado 5.000 cadastros e concluído que, no máximo, 56% eram de usuários reais.
  • Moderação com relação a atividades extremistas: diminuição dos esforços para policiar conteúdo que promovesse violência, desinformação e discurso de ódio após as eleições americanas, o que teria aberto espaço para a organização da invasão do Capitólio.

Delatora foi ao congresso dos EUA

No início de outubro, Frances Haugen, ex-gerente de produtos da rede social, testemunhou no Capitólio depois de vazar para as autoridades e o “Wall Street Journal” documentos internos que detalham como o Facebook sabia que seus sites eram potencialmente prejudiciais para a saúde mental dos jovens.

Haugen disse que quer fazer as pessoas entenderem que a rede social pode ser tão perigosa quanto útil e que, portanto, deve ser controlada.

Acusações de negligência

Depois do depoimento de Haugen, um conjunto de jornais dos Estados Unidos investigou relatórios internos da companhia. Em alguns dos relatos há demonstrações de esforços da empresa para controlar a escalada da desinformação, já em outros, preocupações da rede com sua perda de engajamento e reputação.

O que diz Facebook

O Facebook nega os argumentos de Haugen e afirma que a funcionária “tirou de contexto” os documentos para apresentar um “retrato infiel” da companhia.

O Facebook disse que “a premissa central nestas histórias é falsa”.

“Sim, somos um negócio e temos lucro. Mas a ideia de que lucramos às custas do bem-estar e da segurança das pessoas não compreende onde residem nossos próprios interesses comerciais. Temos mais de 40 mil pessoas trabalhando por um objetivo: manter as pessoas seguras no Facebook. Apenas em 2021, devemos investir mais de US$ 5 bilhões em segurança e integridade, mais do que qualquer outra empresa do setor de tecnologia mesmo quando considerada a nossa escala”, diz a companhia.

A empresa admitiu que as críticas à maneira como implementou seu sistema de verificação cruzada são “justas” — mas disse que o sistema foi projetado para criar “uma etapa adicional” quando o conteúdo postado exige maior compreensão.

O Facebook afirma ainda que muitos documentos citados pelo Wall Street Journal continham “informações desatualizadas e costuradas juntas para criar uma narrativa que encobre o ponto mais importante: o próprio Facebook identificou os problemas com verificação cruzada e vem trabalhando para resolvê-los”.

*Com informações do G1

Caros Leitores, precisamos de um pouco mais de sua atenção

Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica
Agência 0197
Operação 1288
Poupança: 772850953-6
Arlinda Celeste Alves da Silveira
CPF: 450. 139.937-68
PIX: 45013993768

Agradecemos imensamente a sua contribuição

Categorias
Brasil

Por que algoritmos das redes e dos próprios provedores ficam cada vez mais perigosos para a sociedade brasileira

Desde que o neoliberalismo inventou o produto para, depois, inventar o consumidor, muitos absurdos foram e são praticados por esta seita fundamentalista do consumo. Mas certamente o pior deles são os algoritimos. Isso é a praga capitalista do século 21.

E é aí nesse quesito que o neoliberalismo que é, em última análise, um pensamento de extrema direita, se apropria do fascismo para estabelecer verdades absolutas com uma outra forma de ditadura, a dos algoritmos.

A sociedade ainda não percebeu que tudo isso, junto e misturado, faz parte das estratégias dos negócios do mercado. Quando tudo isso ganha força governamental, como é o caso de Bolsonaro, faz-se a fusão entre os interesses políticos e comerciais no mesmo balaio e, longe de ter um pensamento minimamente refinado, as práticas de Bolsonaro chamam a atenção do planeta e, por isso, o Brasil está cada vez mais fechando portas para o mundo, porque, com Bolsonaro, o país se transformou no pior núcleo do neoliberalismo fascista.

Nós aqui do Antropofagista, temos insistido, e muito, em campanhas de doações para sustentar o blog, porque, assim como tantos outros blogs e canais do Youtube, estamos sofrendo um boicote nada silencioso de tudo o que envolve a suposta inteligência artificial que hoje opera na internet a favor da extrema direita, como confessaram os donos do Facebook e do Twitter.

Então, a senha é, qualquer pensamento progressista, sobretudo dos críticos a essa praga fascista, operar com os algoritmos no sentido oposto para que o debate e as informações se tornem cada vez mais invisíveis nas redes.

E quando isso não é possível, determinados posts ou mesmo vídeos no Youtube são desmonetizados, como ocorre frequentemente com o jornalista Bob Fernandes.

No nosso caso, o do Antropofagista, é muito simples de aferir o que está acontecendo, porque simplesmente, na medida em que aumenta o número de inscritos no blog e no sentido inversamente proporcional, caem os acessos e o trâmite, numa clara tentativa de sufocar financeiramente o nosso trabalho.

Mas para explicar melhor o que está ocorrendo, sugerimos que leiam esta matéria feita da BBC Brasil com Stuart Russell, professor da Universidade da Califórnia em Berkeley que dedica-se há décadas ao estudo da Inteligência Artificial (IA).

BBC – Russell usa a metáfora de um gênio de lâmpada atendendo aos desejos de seu mestre: “você pede ao gênio que te torne a pessoa mais rica do mundo, e assim acontece – mas só porque o gênio fez o resto das pessoas desaparecerem”, diz.

“(Na IA) construímos máquinas com o que chamo de modelos padrão: elas recebem objetivos que têm de conquistar ou otimizar, (ou seja), para os quais têm de encontrar a melhor solução possível. E aí levam a cabo essa ação.”

Mesmo que essa ação seja, na prática, prejudicial aos humanos, ele argumenta.

“Se construirmos a Inteligência Artificial de modo a otimizar um objetivo fixo dado por nós, elas (máquinas) serão quase como psicopatas – perseguindo esse objetivo e sendo completamente alheias a todo o restante, até mesmo se pedirmos a elas que parem.”

Um exemplo cotidiano disso, opina Russell, são os algoritmos que regem as redes sociais – que ficaram tão em evidência com a pane global que afetou Facebook, Instagram e WhatsApp durante cerca de seis horas em uma segunda-feira no início de outubro.

A tarefa principal desses algoritmos é favorecer a experiência do usuário nas redes sociais – por exemplo, coletando o máximo de informações possível sobre esse usuário e fornecendo a ele conteúdo que se adeque a suas preferências, fazendo com que ele permaneça mais tempo conectado.

Mesmo que isso ocorra às custas do bem-estar desse usuário ou da cidadania global, prossegue o pesquisador.

“As redes sociais criam vício, depressão, disfunção social, talvez extremismo, polarização da sociedade, talvez contribuam para espalhar desinformação. E está claro que seus algoritmos estão projetados para otimizar um objetivo: que as pessoas cliquem, que passem mais tempo engajadas com o conteúdo”, pontua Russell.

“E, ao otimizar essas quantidades, podem estar causando enormes problemas para a sociedade.”

No entanto, prossegue Russell, esses algoritmos não sofrem escrutínio o bastante para que possam ser verificados ou “consertados” – dessa forma, seguem trabalhando para otimizar seu objetivo, indiferentes ao dano colateral.

“(As redes sociais) não apenas estão otimizando a coisa errada, como também estão manipulando as pessoas, porque ao manipulá-las consegue-se aumentar seu engajamento. Se posso tornar você mais previsível, por exemplo transformando você em uma eco-terrorista extremista, posso te mandar conteúdo eco-terrorista e ter certeza de que você vai clicar, e assim maximizar meus cliques.”

Essas críticas foram reforçadas no início de outubro pela ex-funcionária do Facebook (e atual informante) Frances Haugen, que depôs em audiência no Congresso americano e afirmou que os sites e aplicativos da rede social “trazem danos às crianças, provocam divisões e enfraquecem a democracia”. O Facebook reagiu dizendo que Haugen não tem conhecimento suficiente para fazer tais afirmações.

IA com ‘valores humanos’

Russell, por sua vez, detalhará suas teorias a um público de pesquisadores brasileiros em 13 de outubro, durante a conferência magna do encontro da Academia Brasileira de Ciências, virtualmente.

O pesquisador, autor de Compatibilidade Humana: Inteligência Artificial e o Problema de Controle (sem versão no Brasil), é considerado pioneiro no campo que chama de “Inteligência Artificial compatível com a existência humana”.

“Precisamos de um tipo completamente diferente de sistemas de IA”

Esse tipo de IA, prossegue, teria de “saber” que possui limitações, que não pode cumprir seus objetivos a qualquer custo e que, mesmo sendo uma máquina, pode estar errado.

“Isso faria essa inteligência se comportar de um modo completamente diferente, mais cauteloso, (…) que vai pedir permissão antes de fazer algo quando não tiver certeza de se é o que queremos. E, no caso mais extremo, que queira ser desligada para não fazer algo que vá nos prejudicar. Essa é a minha principal mensagem.”

A teoria defendida por Russell não é consenso: há quem não considere ameaçador esse modelo vigente de Inteligência Artificial.

Um exemplo famoso dos dois lados desse debate ocorreu alguns anos atrás, em uma discordância pública entre os empresários de tecnologia Mark Zuckerberg e Elon Musk.

Uma reportagem do The New York Times contou que, em um jantar ocorrido em 2014, os dois empresários debateram entre si: Musk apontou que “genuinamente acreditava no perigo” de a Inteligência Artificial se tornar superior e subjugar os humanos.

Zuckerberg, porém, opinou que Musk estava sendo alarmista.

Em entrevista no mesmo ano, o criador do Facebook se considerou um “otimista” quanto à Inteligência Artificial e afirmou que críticos, como Musk, “estavam pintando cenários apocalípticos e irresponsáveis”.

“Sempre que ouço gente dizendo que a IA vai prejudicar as pessoas no futuro, penso que a tecnologia geralmente pode ser usada para o bem e para o mal, e você precisa ter cuidado a respeito de como a constrói e como ela vai ser usada. Mas acho questionável que se argumente por reduzir o ritmo do processo de IA. Não consigo entender isso.”

Já Musk argumentou que a IA é “potencialmente mais perigosa do que ogivas nucleares”.

Um lento e invisível ‘desastre nuclear’

Stuart Russell se soma à preocupação de Musk e também traça paralelos com os perigos da corrida nuclear.

“Acho que muitos (especialistas em tecnologia) consideram esse argumento (dos perigos da IA) ameaçador porque ele basicamente diz: ‘a disciplina a que nos dedicamos há diversas décadas é potencialmente um grande risco’. Algumas pessoas veem isso como ser contrário à Inteligência Artificial”, sustenta Russell.

“Mark Zuckerberg acha que os comentários de Elon Musk são anti-IA, mas isso me parece ridículo. É como dizer que a advertência de que uma bomba nuclear pode explodir é um argumento antifísica. Não é antifísica, é um complemento à física, por ter-se criado uma tecnologia tão poderosa que pode destruir o mundo. E de fato tivemos (os acidentes nucleares de) Chernobyl, Fukushima, e a indústria foi dizimada porque não prestou atenção suficiente aos riscos. Então, se você quer obter os benefícios da IA, tem de prestar atenção aos riscos.”

O atual descontrole sobre os algoritmos das redes sociais, argumenta Russell, pode causar “enormes problemas para a sociedade” também em escala global, mas, diferentemente de um desastre nuclear, “lentamente e de modo quase invisível”.

Como, então, reverter esse curso?

Para Russell, talvez seja necessário um redesenho completo dos algoritmos das redes sociais. Mas, antes, é preciso conhecê-los a fundo, opina.

‘Descobrir o que causa a polarização’

Elon Musk

Elon Musk já afirmou considerar a IA ‘potencialmente mais perigosa do que ogivas nucleares’

Russell aponta que no Facebook, por exemplo, nem mesmo o conselho independente encarregado de supervisionar a rede social tem acesso pleno ao algoritmo que faz a curadoria do conteúdo visto pelos usuários.

“Mas há um grupo grande de pesquisadores e um grande projeto em curso na Parceria Global em IA (GPAI, na sigla em inglês), trabalhando com uma grande rede social que não posso identificar, para obter acesso a dados e fazer experimentos”, diz Russell.

“O principal é fazer experimentos com grupos de controle, ver com as pessoas o que está causando a polarização social e a depressão, e (verificar) se mudar o algoritmo melhora isso.”

“Não estou dizendo para as pessoas pararem de usar as redes sociais, nem que elas são inerentemente más”, prossegue Russell. “(O problema) é a forma como os algoritmos funcionam, o uso de likes, de subir conteúdos (com base em preferências) ou de jogá-los para baixo. O modo como o algoritmo escolhe o que colocar no seu feed parece ser baseado em métricas prejudiciais às pessoas. Então precisamos colocar o benefício do usuário como objetivo principal e isso vai fazer as coisas funcionarem melhor e as pessoas ficarão felizes em usar seus sistemas.”

Não haverá uma resposta única sobre o que é “benéfico”. Portanto, argumenta o pesquisador, os algoritmos terão de adaptar esse conceito para cada usuário, individualmente – uma tarefa que, ele próprio admite, não é nada fácil. “Na verdade, essa (área das redes sociais) seria uma das mais difíceis onde se colocar em prática esse novo modelo de IA”, afirma.

“Acho que realmente teriam que começar do zero a coisa toda. É possível que acabemos entendendo a diferença entre manipulação aceitável e inaceitável. Por exemplo, no sistema educacional, manipulamos as crianças para torná-las cidadãos conhecedores, capazes, bem-sucedidos e bem integrados – e consideramos isso aceitável. Mas se o mesmo processo tornasse as crianças terroristas, seria uma manipulação inaceitável. Como, exatamente, diferenciar entre ambos? É uma questão bem difícil. As redes sociais realmente suscitam esses questionamentos bastante difíceis, que até filósofos têm dificuldade em responder.”

 

Caros Leitores, precisamos de um pouco mais de sua atenção

Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica
Agência 0197
Operação 1288
Poupança: 772850953-6
Arlinda Celeste Alves da Silveira
CPF: 450. 139.937-68
PIX: 45013993768

Agradecemos imensamente a sua contribuição

Categorias
Uncategorized

O Blog Antropofagista precisa de você para continuar resistindo

A crise econômica afeta a todos, não seria diferente com os blogs independentes.

Por isso, pedimos o apoio dos nossos leitores para que nos ajudem a tocar o nosso trabalho.

Não somos bancados com recursos públicos, tampouco temos mecenas. O modelo independente que adotamos garante parte pequena dos recursos através da monetização do blog, mas a arrecadação é ínfima e não cobre as despesas necessárias para a sua sobrevivência.

Precisamos de doações a partir de R$ 1,00 para continuar representando uma alternativa concreta de comunicação engajada.

Não podemos ficar reféns de algoritmos para o sustento do blog. Em razão disso recorremos a vocês, leitores, para mantermos de pé o nosso trabalho, ainda mais nesses dias tão nebulosos em que a comunicação factual é imprescindível.

Agradecemos a atenção de vocês e contamos com a compreensão e o carinho de todos. Abaixo o número da conta e o PIX:

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica
Agência 0197
Operação 1288
Poupança: 772850953-6
Arlinda Celeste Alves da Silveira
CPF: 450. 139.937-68
PIX: 45013993768

Agradecemos imensamente a sua contribuição

Categorias
Uncategorized

Alexandre de Moraes critica Carlos Bolsonaro e diz: “Lavagem cerebral via whasapp manipula eleições”

O ministro do STF Alexandre Moraes criticou as fake news, o uso da internet e usou o termo lavagem cerebral, citando grupos de WhatsApp, como instrumentos para manipulação de eleições e enfraquecimento das instituições democráticas. Ele ainda cutucou Carlos Bolsonaro, filho do presidente da República, que escreveu no Twitter que “por vias democráticas a transformação que o Brasil quer não acontecerá na velocidade que almejamos”.

“Democracia atrapalha a rapidez da solução dos problemas. Ouvimos recentemente. A crítica começou a ser exacerbada”, ironizou o Alexandre de Moraes, que é relator do inquérito que corre no STF para apurar fake news.

As declarações ocorreram em palestra que fechou o XXIII Congresso Ibero-Americano de Direito e Informática, em São Paulo. O ministro reclamou que algoritmos usados na publicidade caíram nas mãos de grupos interessados em promover lavagens cerebrais e obtenção votos. Alexandre de Moraes comentou que a legislação não está preparada para lidar com a situação.

Ao final da palestra, o ministro conversou com a imprensa e foi perguntado se era um recado ao presidente ou aos filhos dele. O ministro afirmou que não era mensagem individual a ninguém e que a questão de fake news é um problema global.

“O que que antes era fofoca de quarteirão passou a ser fake news em grupo com 3 milhões de seguidores. Os instrumentos e freios e contrapesos não estavam e não estão preparados para isto”.

Ele citou a manipulação dos dados por parte dos autores de fake news para transmitir a mensagem com um conteúdo empacotado com os gostos do receptor. O ministro do STF acrescentou que estas pessoas se valem de hábitos de brasileiros como religião, locais que frequentam, orientação sexual para elaborar fake news para determinados grupos de interesse. Reclamou que mais tarde estas mesmas pessoas se escondem com o argumento de liberdade de expressão.

“O que se tentava fazer individualmente ou em grupos pequenos hoje é passível de se fazer em massa obtendo dados (pessoais) e bombardeando as pessoas. É lavagem cerebral para o consumo, eleições e ataques às instituições”.

 

 

*Com informações do Uol

Categorias
Uncategorized

Como funciona a manipulação das milícias digitais do bolsonarismo

Antropóloga analisa: extrema-direita manipulou características do WhatsApp — fechado, difícil de rastrear e mais acessado que outras redes — para transformar população insatisfeita em reprodutores da palavra do “capitão”.

Letícia Cesarino é professora no Departamento de Antropologia e no Programa de Pós-Graduação em Antropologia Social da Universidade Federal de Santa Catarina (UFSC). É graduada em ciências sociais pela Universidade Federal de Minas Gerais (UFMG) (2004), mestra em antropologia pela Universidade de Brasília (UnB) (2006), e doutora em antropologia pela Universidade da Califórnia em Berkeley (2013). Tem trabalhado e publicado nos campos da antropologia da ciência e tecnologia, antropologia digital, antropologia econômica e do desenvolvimento, globalização e estudos pós-coloniais.

Você tem realizado pesquisa de campo nos grupos de WhatsApp. Como funciona essa pesquisa? Por que resolveu se dedicar a este campo?

Trabalho há muitos anos no campo da antropologia da ciência e cibernética, e mais recentemente tenho focado no estudo da internet e mídias digitais. A surpreendente eleição brasileira de 2018 despertou interesse de pesquisadores no mundo inteiro, mas minha aproximação se deu por motivos pessoais, quando uma pessoa muito próxima, que eu acreditava ter um perfil destoante do de Jair Bolsonaro, declarou seu voto a ele. Como estava claro que a imagem do então candidato havia sido construída digitalmente, principalmente através da quantidade maciça de conteúdo pelo WhatsApp, comecei aí minha pesquisa, exatamente um ano atrás. O foco desde então tem sido grandes grupos públicos pró-Bolsonaro no WhatsApp, complementado por outras plataformas que se ligam a ele num ecossistema comum, especialmente Twitter, YouTube e Facebook. Eu por enquanto venho apenas coletando conteúdo e observando interações nessas mídias, mas numa segunda etapa o plano é passar para etnografia offline com alguns desses usuários.

O que é o populismo digital? Quais as diferenças principais em relação ao populismo tradicional?

As continuidades entre os dois são muitas, mas há diferenças importantes. A teoria do populismo do argentino Ernesto Laclau, na qual eu me baseio, foi desenvolvida para entender populismos pré-digitais clássicos, como o de Juan Perón ou Getúlio Vargas. Hoje, ainda considero válido o núcleo da teoria, segundo a qual populismo é a construção da identidade de “povo” num contexto de crise, por uma liderança carismática que se diz antissistema, através de dois eixos discursivos articulados: uma fronteira antagonística opondo amigo a inimigo, e uma cadeia de equivalência unindo líder e povo. Em todos os casos, o populismo opera com um tipo de linguagem essencialmente performativa, na qual o emissário (líder) e receptores (povo) da mensagem não preexistem enquanto tais ao ato comunicativo que os une, mas são constituídos por ele. Vimos claramente como isso ocorreu no caso brasileiro, onde, num contexto de crise aguda, a multidão difusa que foi às ruas em junho de 2013 foi sendo gradualmente construída enquanto “povo”, primeiro através do eixo antagonístico do antipetismo e do movimento anticorrupção, e depois através da cadeia de equivalência mobilizada por Jair Bolsonaro em 2018, que operou com o tipo de simbologia mais elementar e previsível possível: em torno da ideia da nação. A base para a irrupção populista já estava posta: tudo o que Jair Bolsonaro precisou fazer foi aproveitá-la para proveito próprio, valendo-se do seu carisma como alguém espontâneo e antipoliticamente correto (o “mito”) através de uma estratégia de campanha digital bastante sofisticada e bem planejada.

A diferença do populismo digital está, creio, no seu tipo especial de eficácia: as mediações digitais permitem fractalizar o mecanismo descrito por Laclau para a rede de seguidores do líder, que passam a reproduzi-lo de modo espontâneo. Na era pré-digital, a eficácia da liderança populista dependia muito das suas capacidades pessoais – oratória, por exemplo. Hoje, boa parte desse carisma e capacidade mobilizadora passa não pela pessoa do líder, mas por atributos das próprias mídias digitais, dos memes aos algoritmos. Todo populista bem-sucedido hoje precisa ser também um bom influenciador digital. Mas no caso brasileiro, diferente de outros, interveio uma contingência que se mostrou crucial: o atentado à faca sofrido pelo candidato. A partir desse momento, formou-se o que eu chamei do “corpo digital do rei”, onde o corpo de apoiadores de Bolsonaro (os autointitulados “marqueteiros do Jair”) substituiu seu corpo físico debilitado na campanha eleitoral, o que foi determinante para sua vitória. Nesse ponto, a campanha Bolsonaro surfou num elemento de eficácia que é próprio do modelo de negócios das redes sociais atualmente, que se baseiam no user-generated content, ou conteúdos gerados pelos usuários.

De que forma o WhatsApp e suas particularidades funcionais contribuem para a disseminação do discurso populista, se comparado a outras redes sociais?

O principal diferencial do WhatsApp, como outros pesquisadores também têm apontado, é a sua extraordinária capilaridade. Isso ocorre por vários fatores. O mais evidente é o padrão de uso do aplicativo, pois, por ser uma ferramenta que em larga medida substituiu a função de comunicação pessoal do telefone, é checado com assiduidade maior que outros. Isso é um fator central para o sucesso do mecanismo populista, pois, para que ele continue gerando o efeito de unificação do “povo”, é preciso que a mobilização seja constante. Um dos tipos de conteúdo digital mais comuns, tanto antes quanto depois da eleição, são justamente mensagens alarmistas e conspiratórias – às vezes falsas, às vezes apenas exageradas – que visam essa função mobilizadora, normalmente indicada em avisos como “urgente!” ou “cuidado!”. Muitos algoritmos, como o do YouTube, premiam esse tipo de conteúdo.

Além disso, o WhatsApp possibilitou que conteúdo de campanha (tanto a oficial como a não-oficial, supostamente feita pelos próprios apoiadores do então candidato) que circulava em outras plataformas como Twitter ou Facebook chegasse a usuários que não estavam registrados ou ativos nelas. E melhor ainda: chegavam já filtrados. É possível que o WhatsApp tenda a ser visto como uma plataforma mais confiável, pois não é aberta à interação pública como outras, e normalmente opera fundamentalmente através de redes pessoais. E há ainda, no caso do Brasil, um fator infraestrutural que é determinante: os pacotes de dados com WhatsApp grátis, oferecido por todas as operadoras. Muitos pesquisadores vêm apontando como, para boa parte da população, o acesso à internet se limita ao WhatsApp, o que basicamente impossibilita a checagem de fatos e o acesso ao contraditório. As pessoas passam a ver o mundo através de uma bolha digital fechada, que se torna a única representação “verdadeira” (pois a única disponível) do mundo político. Isso foi, inclusive, bastante estimulado pelo atual presidente durante a campanha, ao deslegitimar desde o início a imprensa e a esfera pública de modo mais amplo, e pedir aos seus eleitores que acessassem informação exclusivamente através das suas lives e redes sociais. Como se diz por aí: o Twitter virou o novo diário oficial.

Esse elemento de construir um canal de acesso exclusivo do líder ao “povo” é uma característica também dos populismos pré-digitais. O melhor exemplo que temos no nosso caso talvez seja a Voz do Brasil, criada justamente por Getúlio Vargas. O problema de hoje é que esse canal exclusivo, quando construído por meio das mídias digitais, é visto como espontâneo, horizontal e movido pela liberdade de expressão. Mas essa dicotomia é enganadora: aqui, liberdade e controle, espontaneidade e manipulação andam juntos. Por isso, inclusive, a perspectiva cibernética é interessante, uma vez que opera com noções de “comando e controle” que são transversais a essas dicotomias. Como venho insistindo, as mídias digitais são um tipo paradoxal de mediação, pois geram no usuário uma falsa experiência de ausência de mediação. Os apoiadores de Jair Bolsonaro acham que podem prescindir do sistema político-representativo pois acreditam poder acessá-lo diretamente através do seu smartphone. Essa expectativa é, aliás, regularmente alimentada pelo presidente nas suas redes sociais, ao dizer que tal ou qual medida foi tomada depois de ouvir tal ou qual eleitor no seu Facebook ou Twitter.

Você afirma que o WhatsApp apresenta certas características que o diferenciam das outras redes sociais nos últimos anos. O que e como exatamente essas possibilidades dos usuários nessa rede permitem a interação política?

Há um pressuposto que precisa ser problematizado: o WhatsApp é uma rede social? O aplicativo não parece ter sido originalmente criado por seus desenvolvedores com esse propósito, mas para ser um meio de comunicação privado. Por isso ele é peer-to-peer, encriptado etc. Porém, devido a ferramentas como a de encaminhamento, os grandes grupos e os links para grupos públicos, o aplicativo tem sido utilizado, na prática, como uma rede social. As interações que ocorrem ali, são de difícil, senão impossível, rastreio, e têm incidido em questões públicas cruciais como o processo eleitoral – mas não apenas. As ferramentas de monitoramento de WhatsApp disponíveis (na UFMG e UFBA, por exemplo), indicam a incidência do aplicativo em outros setores como o de saúde pública.

Isso coloca dilemas regulatórios bastante particulares, e ainda mais complicados do que no caso do Facebook e outras redes, que já eram eles mesmos difíceis de lidar. Pois o WhatsApp é, hoje, uma espécie de terra de ninguém: a quantidade de conteúdos explícitos de violência (espancamentos, estupros, assassinatos, torturas), pornografia e fraudes como oferta de cartões de crédito ou documentos falsos que circula é impressionante. Apesar de os grupos que eu acompanho serem exclusivos para política e proibirem expressamente esse tipo de conteúdo, é comum que eles “vazem” para os grupos, especialmente naqueles em que os moderadores não são muito ativos. Já vi até grupos acabarem depois de terem sido “inundados” por esse tipo de conteúdo. Por isso, o WhatsApp tem sido às vezes chamado da nova deep web.

Ao passo em que muitas pessoas se dizem insatisfeitas com a política tradicional, grande parte continua integrando grupos de WhatsApp com discussões sobre o assunto. Existe, nesses grupos, de alguma forma, esfera de controle social sobre o debate público?

Acho que há uma questão crucial que poucos estão notando. É bastante comum ouvir nas redes bolsonaristas como o atual presidente fez com que as pessoas se interessassem por política como nunca antes no Brasil – o que é alardeado como um dos feitos milagrosos do “mito”. Mas, para mim, a questão que se coloca é outra: como o bolsonarismo e as mídias digitais têm transformado o que se entende por política no Brasil. Havia um elemento de entretenimento bastante evidente na campanha eleitoral de Jair Bolsonaro, que foi avançada por meios quase que exclusivamente digitais e se pretendia antissistema. No lugar dos antigos debates enfadonhos na TV, longos planos de governo em linguagem burocrática, especialistas que ninguém entende, foi oferecido aos eleitores o carisma dos memes, da lacração, dos roteiros quase hollywoodianos das narrativas conspiracionistas, a excitação de um campeonato de futebol que precisa ser vencido a qualquer custo, a diversão das dancinhas coreografadas e hits do MC Reaça, a catarse coletiva de projetar todas as frustrações individuais em um inimigo público comum (no caso, o PT). E não apenas entretenimento: a campanha grassroots de Bolsonaro foi inclusive uma oportunidade de geração de renda no contexto de precariedade trabalhista no qual se encontra boa parte da população brasileira – desde as ubíquas camisetas do mito vendidas nas ruas, até canais do YouTube que conseguiam seguidores o suficiente para se monetizar, passando por meios mais obscuros como os sites de fake news que geram renda através de ferramentas de propaganda personalizada como o Google AdSense (muitos dos quais, inclusive, eram difundidos através do WhatsApp). Não é difícil qualquer um, mesmo crianças e adolescentes, se interessarem por política hoje em dia, porque a política na nossa época neoliberal já virou outra coisa.

Nos termos de Laclau, podemos dizer que, no contexto populista atual, a política passa principalmente não pela racionalidade, impessoalidade e debate público, mas pelo plano dos “afetos”, e por um nível muito elementar de formação de grupo que prescinde de qualquer educação política no sentido específico do termo. Em minhas análises, utilizo vários conceitos desenvolvidos por antropólogos a partir de pesquisas com sociedades tribais, na África ou na Melanésia. Eles fazem muito sentido para pensar elementos centrais da política hoje. Em minhas análises tenho sugerido, inclusive, que a prevalência das mediações digitais no mundo de hoje tem desestruturado pilares centrais do que chamamos de modernidade, como a ciência e a democracia representativa. Neste sentido, não seria à toa que nosso comportamento político tem se afastado do que seria a norma para a teoria política liberal, e se aproximado de formas políticas de sociedades não modernas ou do passado do ocidente, como as políticas das multidões na Europa do século XIX.

O que se tem observado no Brasil e em outros lugares do mundo hoje é que as pessoas têm feito suas escolhas eleitorais com base nos mesmos critérios que utilizam para outros tipos de interação social. Isso é democracia? Mais ou menos. Pois o que temos visto nas redes bolsonaristas, de modo bastante claro, é uma redução do significado de democracia a apenas um de seus componentes, o da soberania popular. A viúva de Laclau, a belga Chantal Mouffe, aponta que a democracia moderna possui, ainda, um outro polo além desse, que é o liberal-institucional, representado em estruturas de pesos e contrapesos como o equilíbrio dos três poderes. É esse polo que tende a ser esvaziado em contextos de irrupção populista, e é exatamente o que vemos hoje, em pautas bolsonaristas como os ataques ao STF, ao legislativo, e a evocação das Forças Armadas.

O que as pessoas no Brasil parecem não estar se lembrando é que igualar democracia apenas à vontade da maioria, à suposta vontade do “povo” incorporada na figura do líder acima de tudo e de todos, não é democracia. A história europeia do século XX deu a isso um outro nome.

 

 

*Por Maria Clara Ferreira Guimarães e Matheus Antonino Vaz/Outras Palavras

Categorias
Uncategorized

Como o Youtube se tornou um celeiro da nova direita radical

Resolvi fazer um experimento. Com um navegador recém instalado, abri o YouTube e cliquei em um vídeo sobre as máquinas de forjamento de martelo mais rápidas e pesadas que existem. Deixei o sistema rodar mais 13 vídeos na sequência, assistindo aos vídeos, sem deixar likes ou fazer login. A ideia era ver quais eram as sugestões que o YouTube recomendava depois do primeiro.

Após passar por vídeos de halterofilismo, corte de árvores e muitos anúncios de ferramentas pesadas, equipamentos e carne para churrasco e outros, o YouTube me recomendou um vídeo sobre como fazer munição para uma arma semi-automática.

As recomendações e os anúncios, voltados para quem exalta o estilo de vida do Rambo, mostram que os algoritmos entenderam que, porque eu cliquei em um único vídeo de máquinas pesadas, eu sou homem e gosto de armas e churrasco.

Essas conexões que os algoritmos fizeram vêm dos dados que o YouTube analisou sobre meu comportamento no site e sobre os vídeos com os quais interagi, seja clicando sobre o vídeo, pausando, aumentando o volume ou até mexendo o mouse sobre as recomendações. Tudo é monitorado. As métricas que escolhem quais vídeos serão recomendados são baseadas, principalmente, na possibilidade de um vídeo ser assistido pelo usuário. Ela faz parte de um mecanismo sofisticado de inteligência que tem um objetivo principal: fazer com que você passe o máximo de tempo possível no YouTube.

Como conteúdos extremistas naturalmente chamam mais atenção, a plataforma cria uma bolha conectando vídeos bizarros. Assim, usuários mergulham cada vez mais fundo num assunto. Não por acaso, da fabricação de martelos eu fui levada pelo algoritmo para um vídeo sobre munição e armas em apenas 13 passos. A mesma coisa acontece com vídeos relacionados à política.
Recomendação ao extremo

Em 2015, os usuários do YouTube subiam 400 horas de vídeo por minuto. A maior parte desse conteúdo é criada de forma amadora. No site, usuários de todo o mundo gastam mais de um bilhão de horas assistindo a vídeos todos os dias.

Apesar de ter um serviço de assinaturas, o YouTube Premium, o serviço ganha dinheiro mesmo é com anúncios. Para sustentar a infraestrutura necessária – e garantir que o modelo continue crescendo – o site precisa ser gigante. Como na velha TV aberta, quanto mais pessoas assistindo a um programa, mais gente vê os comerciais durante os intervalos.

Para manter o interesse das pessoas nos canais – e garantir que elas sejam expostas a mais e mais anúncios –, a plataforma usa algoritmos para organizar o conteúdo e circular vídeos novos, gerando uma demanda diária por novo material. Esses algoritmos usam uma combinação de dados para recomendar vídeos que visam, literalmente, prender e viciar as pessoas.

Quando o sistema de recomendações foi lançado, em 2010, ele deu resultados imediatos: começou a ser responsável por 60% dos cliques dos usuários, segundo artigo científico escrito pelos cientistas do Google no mesmo ano.

Em 2015, com a liderança do time Google Brain, a empresa começou usar aprendizado de máquina – conhecido em inglês como machine learning – para melhorar o sistema de recomendações. Em 2017, o YouTube começou a rodar tudo sobre uma sofisticada plataforma de inteligência artificial, o Tensorflow.

Estava completa a transição para um sistema que aprende sem ser “supervisionado” por humanos – tecnologia também chamada de unsupervised deep learning, ou aprendizado profundo sem supervisão. Esses algoritmos escolhem quais vídeos vão para a barra de recomendados, quais aparecem na busca, qual vídeo toca a seguir quando no modo reprodução automática (o autoplay) e também montam a homepage dos usuários no YouTube. Sim, cada vez que você abre sua home ela está diferente. Ela foi customizada pelas máquinas para que você assista mais e mais vídeos.

Para tomar as decisões por você, os algoritmos associam significados que eles mesmos aprendem em etapas, de modo a filtrar e combinar categorias para chegar em um conjunto de vídeos ou anúncios para recomendar. Primeiro, dão um significado para um vídeo segundo suas características. Depois, combinam esse significado com mais dados, como por exemplo a quantidade de horas que um usuário gasta assistindo determinados vídeos com significados semelhantes. As categorias vão sendo combinadas pelos algoritmos para encontrar as recomendações que o usuário tem mais possibilidade de clicar e assistir:

O site gera essas recomendações a partir das suas interações, nas informações dos vídeos e nos dados dos usuários. Isso engloba tudo que você faz no navegador: parar o vídeo, colocar o mouse por cima de determinada imagem, aumentar ou diminuir o volume, quais abas você está navegando quando está vendo vídeos, com quem você interage nos comentários e que tipo de comentários faz, se deu like ou dislike e até mesmo a taxa de cliques em recomendações etc.

Como a interação não é só baseada em likes, o YouTube valoriza também os comentários, atribuindo valores de positivo e negativo às conversas. Por causa disso, o feedback do usuário sobre o vídeo é avaliado e pesa na fórmula que calcula a possibilidade da pessoa assistir aos outros vídeos. Mesmo sem dar like, você entrega os seus dados e tem sua interação monitorada o tempo todo.

Os autores dos vídeos sabem muito bem como funciona essa lógica. Os anunciantes também. Os youtubers têm à sua disposição a plataforma para criadores do YouTube, o YouTube Studio, que fornece métricas e informações sobre a audiência. Assim, existe um incentivo para os produtores fazerem vídeos cada vez mais extremos e bizarros para prender a audiência o máximo possível. Isso explica um pouco a obsessão da internet pela banheira de Nutella, e também ajuda a entender como se elegeram tantos youtubers interconectados nas últimas eleições.

Como conteúdo radical dá dinheiro, por conta dos anúncios, extremistas usam também outras ferramentas para incentivar a formação de bolhas e atrair cada vez mais gente. No Brasil, donos de canais de conteúdo extremo e conspiratório, como a Joice Hasselmann, por exemplo, costumam divulgar seu número do WhatsApp, viciando as pessoas em seus conteúdos com base na exploração dessa relação de proximidade ou intimidade.
Redes de extrema-direita

Enquanto o Google terminava a transição da sua tecnologia no YouTube, surgiram denúncias sobre como vídeos de conteúdo extremo começaram a ganhar audiência na plataforma – muitos deles, inclusive, recomendados a crianças. Em 2017, pesquisadores descobriram uma rede de produtores de conteúdo que fazia vídeos com conteúdo bizarro para crianças: afogamentos, pessoas enterradas vivas e outros tipos de violência eram empacotados com música e personagens infantis.

Alguns pesquisadores, como a americana Zeynep Tufekci, escreveram sobre como o YouTube estava lhe recomendando conteúdos da extrema direita americana após ela ter visto um único vídeo de Donald Trump. No Brasil não é diferente. Basta assistir a um vídeo de extrema direita que as recomendações vão garantir que você se aprofunde cada vez mais no ódio:

A radicalização acontece muito mais à direita do que à esquerda. Primeiro porque os produtores de conteúdo conservadores souberam bem agregar pautas polêmicas e teorias conspiratórias que já faziam sucesso na internet, como o criacionismo. Além disso, há uma coerência em suas pautas – os assuntos em comum ajudam a alavancar a audiência de forma mútua. Já a esquerda, além de ter uma pauta mais fragmentada que nem sempre se conversa – há o feminismo, a luta antirracista, os marxistas etc –, não conseguiu surfar a onda das polêmicas de internet.

Guillaume Chaslot, que é ex-funcionário do Google e hoje trabalha em uma fundação para a transparência de algoritmos, tem argumentado desde 2016 que a plataforma de recomendações do YouTube foi decisiva nas eleições de Trump, espalhando notícias falsas e teorias da conspiração. Segundo ele, o algoritmo vendido como neutro pelo Google ajudou a garantir audiência para vários vídeos conspiratórios, como um em que Yoko Ono supostamente admitiria ter tido um caso com Hillary Clinton nos anos 1970 e outro sobre uma falsa rede de pedofilia operada pelos Clinton.

O impacto desse tipo de conteúdo, porém, não é fácil de ser medido – a fórmula dos algoritmos é mantida em segredo pela empresa, ou seja, não dá para saber exatamente quais são os critérios que determinam o peso de cada característica no processo de decisão sobre qual vídeo indicar.

Esse sistema cria uma rede interligada – que, em conjunto, fica mais poderosa. Analisando mais de 13 mil canais de extrema direita no YouTube, Jonas Kaiser, pesquisador do Berkman Klein Center de Harvard, percebeu que elas estão conectadas internacionalmente dentro do YouTube, especialmente por conta do compartilhamento de vídeos com idéias extremistas. É uma rede fértil para circular a ideia de que políticas afirmativas para negros são parte de uma conspiração para acabar com a raça branca ocidental, por exemplo, o delírio de que vacinas são parte de um plano para acabar com determinadas populações em um experimento ou até a história de que as eleições brasileiras estariam em risco por uma suposta fraude nas urnas eletrônicas.

Os dados levantados por Kaiser mostram que o esquema de recomendação do YouTube “conecta diversos canais que poderiam estar mais isolados sem a influência do algoritmo, ajudando a unir a extrema direita”, ele escreve.

Não é por acaso que o teor conspiratório dos vídeos dos EUA é bem parecido com as redes de outros países: quase sempre envolve vacinas, terraplanismo, pedofilia e uma suposta organização internacional de esquerda sedenta por tomar o poder.

No Brasil, o cenário não é muito diferente. Temos a nossa própria rede de influenciadores de extrema direita, catapultados para a fama com a ajuda do algoritmo do YouTube. Nando Moura, com quase três milhões de seguidores, já fez vídeos defendendo a existência da cura gay. Outro influenciador, Diego Rox, defende para seus quase um milhão de seguidores a existência da Ursal. Todos recomendados por Jair Bolsonaro, que se beneficia da popularização de teorias conspiratórias de extrema direita.

Recentemente o Google reconheceu o problema. A empresa disse que passaria a sinalizar vídeos que espalhassem desinformação e exibiria, junto com eles, conteúdo da Wikipedia, em uma medida que pareceu um pouco desesperada. E não ataca a raiz do problema: seu modelo exploratório de negócios, uma herança da televisão.

A verdade é que o YouTube é um grande laboratório de machine learning, onde os seres humanos são as cobaias. Resta saber qual é o real impacto do experimento no exercício da liberdade de escolha e expressão. O problema é que eu desconfio que algo não está dando muito certo.

 

Por Yasodara Córdova

*Do Intercept Brasil