Documentos internos revelados por ex-funcionária, e divulgado pela mídia americana, colocam empresa em meio a novo escândalo. Grupo acaba de mudar de nome, e agora se chama Meta.
O Facebook mudou o nome da empresa controladora do grupo, que reúne Instagram e WhatsApp, para Meta. A mudança aconteceu em meio ao escândalo de documentos internos vazados, um caso que ficou conhecido como “Facebook Papers”.
A estratégia de trocar o Facebook Inc. para Meta Plataforms Inc. é vista como uma tentativa de se afastar das recentes polêmicas, mas também está diretamente ligada com o projeto de metaverso da gigante de tecnologia, um ambiente virtual que promete criar todo um mundo tecnológico para convivência.
Durante a série de vazamentos, a empresa negou algumas das acusações, além de dizer que muitas das informações veiculadas foram tiradas do contexto.
Ao g1, a empresa disse que “a premissa central nestas histórias é falsa” e afirmou que tem mais de 40 mil pessoas “trabalhando para deixar as pessoas seguras”(veja mais explicações da empresa na reportagem).
Celebridades tratadas de forma diferente: em um sistema conhecido como XCheck (verificação cruzada), certos perfis, como o de esportistas e políticos, eram submetidos a regras diferentes sobre o conteúdo que poderiam postar.
Negligência diante de atos criminosos: funcionários relatam que a resposta da empresa era “fraca” diante de alertas relacionados a cartéis de droga e tráfico de pessoas operados na plataforma.
Instagram “tóxico”: uma pesquisa conduzida pela empresa apurou como o Instagram estava afetando adolescentes, mas não compartilhou resultados que sugeriam que a plataforma é um lugar “tóxico” para muitos jovens.
Algoritmos que incitam ódio: o Facebook tentou tornar plataforma mais saudável, mas ela ficou mais violenta. A empresa mudou o algoritmo em 2018 para aproximar usuários de seus amigos e familiares, mas identificou que a alteração teve o efeito contrário. Mark Zuckerberg teria resistido a fazer mudanças por entender que elas fariam usuários interagirem menos.
Demora para mudar falha conhecida: atraso para reverter o engajamento de postagens com o botão “raiva”, sabidamente relacionado a conteúdos “tóxicos” e com desinformação.
Dúvidas sobre usuários ativos: uma apresentação interna sugeriu que a empresa não sabia a quantidade de usuários ativos. No documento, executivos afirmaram que o fenômeno de usuários com várias contas era “muito prevalente” entre os novos cadastros. A empresa teria analisado 5.000 cadastros e concluído que, no máximo, 56% eram de usuários reais.
Moderação com relação a atividades extremistas: diminuição dos esforços para policiar conteúdo que promovesse violência, desinformação e discurso de ódio após as eleições americanas, o que teria aberto espaço para a organização da invasão do Capitólio.
Delatora foi ao congresso dos EUA
No início de outubro, Frances Haugen, ex-gerente de produtos da rede social, testemunhou no Capitólio depois de vazar para as autoridades e o “Wall Street Journal” documentos internos que detalham como o Facebook sabia que seus sites eram potencialmente prejudiciais para a saúde mental dos jovens.
Haugen disse que quer fazer as pessoas entenderem que a rede social pode ser tão perigosa quanto útil e que, portanto, deve ser controlada.
Acusações de negligência
Depois do depoimento de Haugen, um conjunto de jornais dos Estados Unidos investigou relatórios internos da companhia. Em alguns dos relatos há demonstrações de esforços da empresa para controlar a escalada da desinformação, já em outros, preocupações da rede com sua perda de engajamento e reputação.
O que diz Facebook
O Facebook nega os argumentos de Haugen e afirma que a funcionária “tirou de contexto” os documentos para apresentar um “retrato infiel” da companhia.
O Facebook disse que “a premissa central nestas histórias é falsa”.
“Sim, somos um negócio e temos lucro. Mas a ideia de que lucramos às custas do bem-estar e da segurança das pessoas não compreende onde residem nossos próprios interesses comerciais. Temos mais de 40 mil pessoas trabalhando por um objetivo: manter as pessoas seguras no Facebook. Apenas em 2021, devemos investir mais de US$ 5 bilhões em segurança e integridade, mais do que qualquer outra empresa do setor de tecnologia mesmo quando considerada a nossa escala”, diz a companhia.
A empresa admitiu que as críticas à maneira como implementou seu sistema de verificação cruzada são “justas” — mas disse que o sistema foi projetado para criar “uma etapa adicional” quando o conteúdo postado exige maior compreensão.
O Facebook afirma ainda que muitos documentos citados pelo Wall Street Journal continham “informações desatualizadas e costuradas juntas para criar uma narrativa que encobre o ponto mais importante: o próprio Facebook identificou os problemas com verificação cruzada e vem trabalhando para resolvê-los”.
*Com informações do G1
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Desde que o neoliberalismo inventou o produto para, depois, inventar o consumidor, muitos absurdos foram e são praticados por esta seita fundamentalista do consumo. Mas certamente o pior deles são os algoritimos. Isso é a praga capitalista do século 21.
E é aí nesse quesito que o neoliberalismo que é, em última análise, um pensamento de extrema direita, se apropria do fascismo para estabelecer verdades absolutas com uma outra forma de ditadura, a dos algoritmos.
A sociedade ainda não percebeu que tudo isso, junto e misturado, faz parte das estratégias dos negócios do mercado. Quando tudo isso ganha força governamental, como é o caso de Bolsonaro, faz-se a fusão entre os interesses políticos e comerciais no mesmo balaio e, longe de ter um pensamento minimamente refinado, as práticas de Bolsonaro chamam a atenção do planeta e, por isso, o Brasil está cada vez mais fechando portas para o mundo, porque, com Bolsonaro, o país se transformou no pior núcleo do neoliberalismo fascista.
Nós aqui do Antropofagista, temos insistido, e muito, em campanhas de doações para sustentar o blog, porque, assim como tantos outros blogs e canais do Youtube, estamos sofrendo um boicote nada silencioso de tudo o que envolve a suposta inteligência artificial que hoje opera na internet a favor da extrema direita, como confessaram os donos do Facebook e do Twitter.
Então, a senha é, qualquer pensamento progressista, sobretudo dos críticos a essa praga fascista, operar com os algoritmos no sentido oposto para que o debate e as informações se tornem cada vez mais invisíveis nas redes.
E quando isso não é possível, determinados posts ou mesmo vídeos no Youtube são desmonetizados, como ocorre frequentemente com o jornalista Bob Fernandes.
No nosso caso, o do Antropofagista, é muito simples de aferir o que está acontecendo, porque simplesmente, na medida em que aumenta o número de inscritos no blog e no sentido inversamente proporcional, caem os acessos e o trâmite, numa clara tentativa de sufocar financeiramente o nosso trabalho.
Mas para explicar melhor o que está ocorrendo, sugerimos que leiam esta matéria feita da BBC Brasil com Stuart Russell, professor da Universidade da Califórnia em Berkeley que dedica-se há décadas ao estudo da Inteligência Artificial (IA).
BBC – Russell usa a metáfora de um gênio de lâmpada atendendo aos desejos de seu mestre: “você pede ao gênio que te torne a pessoa mais rica do mundo, e assim acontece – mas só porque o gênio fez o resto das pessoas desaparecerem”, diz.
“(Na IA) construímos máquinas com o que chamo de modelos padrão: elas recebem objetivos que têm de conquistar ou otimizar, (ou seja), para os quais têm de encontrar a melhor solução possível. E aí levam a cabo essa ação.”
Mesmo que essa ação seja, na prática, prejudicial aos humanos, ele argumenta.
“Se construirmos a Inteligência Artificial de modo a otimizar um objetivo fixo dado por nós, elas (máquinas) serão quase como psicopatas – perseguindo esse objetivo e sendo completamente alheias a todo o restante, até mesmo se pedirmos a elas que parem.”
Um exemplo cotidiano disso, opina Russell, são os algoritmos que regem as redes sociais – que ficaram tão em evidência com a pane global que afetou Facebook, Instagram e WhatsApp durante cerca de seis horas em uma segunda-feira no início de outubro.
A tarefa principal desses algoritmos é favorecer a experiência do usuário nas redes sociais – por exemplo, coletando o máximo de informações possível sobre esse usuário e fornecendo a ele conteúdo que se adeque a suas preferências, fazendo com que ele permaneça mais tempo conectado.
Mesmo que isso ocorra às custas do bem-estar desse usuário ou da cidadania global, prossegue o pesquisador.
“As redes sociais criam vício, depressão, disfunção social, talvez extremismo, polarização da sociedade, talvez contribuam para espalhar desinformação. E está claro que seus algoritmos estão projetados para otimizar um objetivo: que as pessoas cliquem, que passem mais tempo engajadas com o conteúdo”, pontua Russell.
“E, ao otimizar essas quantidades, podem estar causando enormes problemas para a sociedade.”
No entanto, prossegue Russell, esses algoritmos não sofrem escrutínio o bastante para que possam ser verificados ou “consertados” – dessa forma, seguem trabalhando para otimizar seu objetivo, indiferentes ao dano colateral.
“(As redes sociais) não apenas estão otimizando a coisa errada, como também estão manipulando as pessoas, porque ao manipulá-las consegue-se aumentar seu engajamento. Se posso tornar você mais previsível, por exemplo transformando você em uma eco-terrorista extremista, posso te mandar conteúdo eco-terrorista e ter certeza de que você vai clicar, e assim maximizar meus cliques.”
Essas críticas foram reforçadas no início de outubro pela ex-funcionária do Facebook (e atual informante) Frances Haugen, que depôs em audiência no Congresso americano e afirmou que os sites e aplicativos da rede social “trazem danos às crianças, provocam divisões e enfraquecem a democracia”. O Facebook reagiu dizendo que Haugen não tem conhecimento suficiente para fazer tais afirmações.
IA com ‘valores humanos’
Russell, por sua vez, detalhará suas teorias a um público de pesquisadores brasileiros em 13 de outubro, durante a conferência magna do encontro da Academia Brasileira de Ciências, virtualmente.
O pesquisador, autor de Compatibilidade Humana: Inteligência Artificial e o Problema de Controle (sem versão no Brasil), é considerado pioneiro no campo que chama de “Inteligência Artificial compatível com a existência humana”.
“Precisamos de um tipo completamente diferente de sistemas de IA”
Esse tipo de IA, prossegue, teria de “saber” que possui limitações, que não pode cumprir seus objetivos a qualquer custo e que, mesmo sendo uma máquina, pode estar errado.
“Isso faria essa inteligência se comportar de um modo completamente diferente, mais cauteloso, (…) que vai pedir permissão antes de fazer algo quando não tiver certeza de se é o que queremos. E, no caso mais extremo, que queira ser desligada para não fazer algo que vá nos prejudicar. Essa é a minha principal mensagem.”
A teoria defendida por Russell não é consenso: há quem não considere ameaçador esse modelo vigente de Inteligência Artificial.
Um exemplo famoso dos dois lados desse debate ocorreu alguns anos atrás, em uma discordância pública entre os empresários de tecnologia Mark Zuckerberg e Elon Musk.
Uma reportagem do The New York Times contou que, em um jantar ocorrido em 2014, os dois empresários debateram entre si: Musk apontou que “genuinamente acreditava no perigo” de a Inteligência Artificial se tornar superior e subjugar os humanos.
Zuckerberg, porém, opinou que Musk estava sendo alarmista.
Em entrevista no mesmo ano, o criador do Facebook se considerou um “otimista” quanto à Inteligência Artificial e afirmou que críticos, como Musk, “estavam pintando cenários apocalípticos e irresponsáveis”.
“Sempre que ouço gente dizendo que a IA vai prejudicar as pessoas no futuro, penso que a tecnologia geralmente pode ser usada para o bem e para o mal, e você precisa ter cuidado a respeito de como a constrói e como ela vai ser usada. Mas acho questionável que se argumente por reduzir o ritmo do processo de IA. Não consigo entender isso.”
Já Musk argumentou que a IA é “potencialmente mais perigosa do que ogivas nucleares”.
Um lento e invisível ‘desastre nuclear’
Stuart Russell se soma à preocupação de Musk e também traça paralelos com os perigos da corrida nuclear.
“Acho que muitos (especialistas em tecnologia) consideram esse argumento (dos perigos da IA) ameaçador porque ele basicamente diz: ‘a disciplina a que nos dedicamos há diversas décadas é potencialmente um grande risco’. Algumas pessoas veem isso como ser contrário à Inteligência Artificial”, sustenta Russell.
“Mark Zuckerberg acha que os comentários de Elon Musk são anti-IA, mas isso me parece ridículo. É como dizer que a advertência de que uma bomba nuclear pode explodir é um argumento antifísica. Não é antifísica, é um complemento à física, por ter-se criado uma tecnologia tão poderosa que pode destruir o mundo. E de fato tivemos (os acidentes nucleares de) Chernobyl, Fukushima, e a indústria foi dizimada porque não prestou atenção suficiente aos riscos. Então, se você quer obter os benefícios da IA, tem de prestar atenção aos riscos.”
O atual descontrole sobre os algoritmos das redes sociais, argumenta Russell, pode causar “enormes problemas para a sociedade” também em escala global, mas, diferentemente de um desastre nuclear, “lentamente e de modo quase invisível”.
Como, então, reverter esse curso?
Para Russell, talvez seja necessário um redesenho completo dos algoritmos das redes sociais. Mas, antes, é preciso conhecê-los a fundo, opina.
‘Descobrir o que causa a polarização’
Elon Musk já afirmou considerar a IA ‘potencialmente mais perigosa do que ogivas nucleares’
Russell aponta que no Facebook, por exemplo, nem mesmo o conselho independente encarregado de supervisionar a rede social tem acesso pleno ao algoritmo que faz a curadoria do conteúdo visto pelos usuários.
“Mas há um grupo grande de pesquisadores e um grande projeto em curso na Parceria Global em IA (GPAI, na sigla em inglês), trabalhando com uma grande rede social que não posso identificar, para obter acesso a dados e fazer experimentos”, diz Russell.
“O principal é fazer experimentos com grupos de controle, ver com as pessoas o que está causando a polarização social e a depressão, e (verificar) se mudar o algoritmo melhora isso.”
“Não estou dizendo para as pessoas pararem de usar as redes sociais, nem que elas são inerentemente más”, prossegue Russell. “(O problema) é a forma como os algoritmos funcionam, o uso de likes, de subir conteúdos (com base em preferências) ou de jogá-los para baixo. O modo como o algoritmo escolhe o que colocar no seu feed parece ser baseado em métricas prejudiciais às pessoas. Então precisamos colocar o benefício do usuário como objetivo principal e isso vai fazer as coisas funcionarem melhor e as pessoas ficarão felizes em usar seus sistemas.”
Não haverá uma resposta única sobre o que é “benéfico”. Portanto, argumenta o pesquisador, os algoritmos terão de adaptar esse conceito para cada usuário, individualmente – uma tarefa que, ele próprio admite, não é nada fácil. “Na verdade, essa (área das redes sociais) seria uma das mais difíceis onde se colocar em prática esse novo modelo de IA”, afirma.
“Acho que realmente teriam que começar do zero a coisa toda. É possível que acabemos entendendo a diferença entre manipulação aceitável e inaceitável. Por exemplo, no sistema educacional, manipulamos as crianças para torná-las cidadãos conhecedores, capazes, bem-sucedidos e bem integrados – e consideramos isso aceitável. Mas se o mesmo processo tornasse as crianças terroristas, seria uma manipulação inaceitável. Como, exatamente, diferenciar entre ambos? É uma questão bem difícil. As redes sociais realmente suscitam esses questionamentos bastante difíceis, que até filósofos têm dificuldade em responder.”
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
O Brasil é um dos três países que mais precisam de moderação de conteúdo do Facebook, ao lado de Índia e Estados Unidos, segundo demonstram documentos vazados por funcionários da empresa e pela ex-gerente e delatora Frances Haugen. O caso está sendo chamado de “Facebook Papers” (Documentos do Facebook, em tradução direta).
De acordo com os arquivos internos da empresa, desde o final de 2019, a plataforma mantém um ranking de nações que demandam atenção especial, principalmente em períodos delicados, como eleições, manifestações e instabilidade social. Brasil, EUA e Índia estão no topo, o “nível 0” (tier 0), de prioridade máxima.
Eles são os que recebem mais recursos e um trabalho proativo de moderação, incluindo equipes especializadas dedicadas 24 horas por dia, com auxílio de inteligência artificial. O Facebook estabeleceu verdadeiras “salas de guerra”, oficialmente chamadas de “centros de operações aprimoradas”, para monitorar a plataforma nestes três países constantemente.
De acordo com as investigações:
No “nível 1” (tier 1), estão Indonésia, Israel, Irã, Itália e Alemanha. Eles recebem menos recursos, com atenção especial apenas na época de eleições.
No “nível 2” (tier 2), há outros 22 países, sem “salas de guerra”.
No “nível 3” (tier 3), está o resto do mundo que o Facebook funciona. Na categoria, existe mínima intervenção e a avaliação de conteúdo é quase inexistente: uma postagem indevida só é retirada do ar caso seja localizada manualmente por um moderador.
Apenas no caso de crises e eventos extraordinários, como golpes de Estado e violações aos direitos humanos, um desses países ou regiões do grupo três pode receber esforços mais ativos, temporariamente.
Ou seja, apenas as 30 nações com mais usuários e acessos à rede social contam de fato com revisão das postagens. De acordo com os documentos internos, o ranking —criado meses antes das últimas eleições presidenciais norte-americanas, em 2020— foi uma maneira de distribuir melhor o uso dos recursos de moderação pelo mundo.
Consequências da desigualdade
Com cerca de 3 bilhões de usuários, a empresa preferiu fazer escolhas e priorizar os locais em que é mais popular do que dividir os recursos igualmente. Essa desigualdade de moderação tem sido alvo de críticas nos últimos anos.
Países como Mianmar, Paquistão e Etiópia, apesar de constantemente atravessarem conflitos sectários, políticos e sociais, não contam com classificadores de conteúdo, o que contribui para o aumento da disseminação de violência e ódio na rede social.
Em Mianmar a situação é ainda pior, pois o Facebook é a principal maneira de navegação na Internet, devido aos constantes blecautes e à censura imposta pelo governo.
Uma das grandes barreiras é o idioma: a empresa não tem especialistas, como tradutores e moderadores, suficientes que falem a língua de boa parte dos países de nível 2 e 3. Só assim seria possível detectar discursos de ódio e fake news, além de treinar a inteligência artificial para fazer o mesmo.
“Temos equipes dedicadas que trabalham para impedir o abuso em nossa plataforma em países onde há alto risco de conflito e violência. Também temos equipes globais com falantes nativos que revisam o conteúdo em mais de 70 idiomas, juntamente com especialistas em questões humanitárias e de direitos humanos”, garantiu um porta-voz do Facebook ao site Insider.
“Fizemos progresso no enfrentamento de grandes desafios, como a evolução de termos de discurso de ódio, e construímos novas maneiras de responder rapidamente aos problemas quando eles surgirem. Sabemos que esses desafios são reais e estamos orgulhosos do trabalho que fizemos até agora.”
*Com informações do Uol
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
A Justiça do Distrito Federal rejeitou pedido de indenização feito pelo deputado federal Eduardo Bolsonaro (PSL-SP) contra o Facebook.
Eduardo processou o Facebook dizendo que, em junho, a rede social cometeu um ato ilícito ao suspender sua conta por sete dias. A medida, de acordo com o deputado, foi tomada após ele compartilhar um vídeo de Jair Bolsonaro.
No vídeo, o presidente citava um suposto relatório do Tribunal de Contas da União com dados não comprovados sobre as mortes por covid-19, no intuito de defender a tese de que em torno de 50% dos óbitos atribuídos à pandemia em 2020 não ocorreram pela doença. O TCU disse que essa afirmação era falsa.
Eduardo Bolsonaro afirmou à Justiça que a punição era um ato de censura. “Não há que se falar em ‘desinformação’ quando o vídeo postado concerne a um comunicado público realizado pelo Presidente da República.”, afirmou à Justiça.
Além da indenização de R$ 5.000, o deputado federal queria que a Justiça proibisse o Facebook de aplicar outras punições sem que ele pudesse se defender previamente.
Na defesa apresentada à Justiça, o Facebook disse que o post foi removido por diminuir a gravidade da pandemia. “O conteúdo possuía a potencialidade de causar danos físicos aos demais usuários”, afirmou. Declarou também que não suspendeu a conta de Eduardo por sete dias, e, sim, que houve uma falha técnica, logo sanada.
Na sentença em que deu razão ao Facebook, o juiz Caio Brucoli Sembongi, da 17ª Vara Cível de Brasília, afirmou que devem prevalecer os direitos à vida e à saúde. “O Facebook não cometeu ato ilícito. Ao contrário, agiu em conformidade com a legislação e com os termos de uso da plataforma.”
*Com informações do Uol
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Pela primeira vez empresa remove live semanal do presidente.
Na noite deste domingo (24), o Facebook derrubou a live semanal do presidente Jair Bolsonaro (sem partido) transmitida na última quinta-feira (21).
O vídeo não está mais disponível nem no Facebook nem no Instagram.
De acordo com porta-voz da companhia, o motivo para a exclusão foram as políticas da empresa relacionadas à vacina da Covid-19. “Nossas políticas não permitem alegações de que as vacinas de Covid-19 matam ou podem causar danos graves às pessoas.”
Em sua live semanal, Bolsonaro leu uma suposta notícia que alertava que “vacinados [contra a Covid] estão desenvolvendo a síndrome da imunodeficiência adquirida [Aids]”.
Médicos, no entanto, afirmam que a associação entre o imunizante contra o coronavírus e a transmissão do HIV, o vírus da Aids, é falsa e inexistente.
Esta é a primeira vez que a empresa remove uma live semanal do presidente. Até hoje o Facebook só tinha derrubado um post de Bolsonaro relacionado à pandemia: um vídeo de março de 2020 em que ele citava o uso de cloroquina para o tratamento da doença e defendia o fim do isolamento social.
Apesar de o presidente reiteradamente espalhar desinformação em suas lives, as demais não foram excluídas pelo Facebook. Segundo a Folha apurou, a exclusão desta vez ocorreu porque a fala do presidente foi considerada taxativa pela empresa.
*Com informações da Folha
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Denúncias publicadas por consórcio formado por 17 organizações jornalísticas norte-americanas indicam que empresa foi alertada durante anos sobre disseminação de fake news e discurso de ódio.
Veículos internacionais como “The News York Times”, “CNN” e “Washington Post” publicaram neste sábado (23) denúncias envolvendo o Facebook. O consórcio, chamado de “The Facebook Papers” e formado por 17 organizações jornalísticas norte-americanas, traz reportagens sobre documentos vazados da empresa de Mark Zuckerberg.
As acusações afirmam, em sua maioria, que a rede social contribuiu para a disseminação de fake news, e inclusive para a mobilização de grupos de extrema direita, o que culminou na invasão ao Capitólio em 6 de janeiro, que deixou cinco mortos.
Os documentos provam as revelações feitas no mês passado por Frances Haugen, uma ex-gerente de produtos do Facebook. Segundo ela, a rede de Zuckerberg mentiu sobre o combate ao discurso de ódio, violência e fake news na plataforma. Frances disse que o Facebook desmontou sua equipe de “integridade cívica” logo após a eleição de 2020, assim que Joe Biden foi declarado vencedor.
Funcionários alertaram sobre fake news
A reportagem do “The New York Times” mostra que funcionários do Facebook alertaram durante anos sobre a desinformação e potencial risco de radicalizar os usuários da plataforma e solicitaram uma ação – mas a empresa falhou para resolver os problemas.
Embora a rede social tenha culpado Trump pela disseminação de notícias falsas, vários funcionários acreditam que poderia ter sido feito mais para evitar a proliferação de fake news. O alerta veio, inclusive, através de um estudo interno, intitulado “Jornada de Carol para QAnon”, feito por uma pesquisadora do Facebook.
Em julho de 2019, ela criou uma conta teste se passando por uma “mãe conservadora” da Carolina do Norte e, uma semana depois, começou a receber recomendações de conteúdo de teorias da conspiração.
Ela seguiu, então, as páginas da Fox News e da Sinclair Broadcasting e, em poucos dias, vieram sugestões para seguir páginas e grupos relacionados ao QAnon, incluindo uma fake news de que Trump estaria enfrentando uma conspiração obscura feita por pedófilos democratas.
Algum tempo depois, a mesma pesquisadora criou uma conta teste com um perfil esquerdista e descobriu que os algoritmos do Facebook a alimentavam com memes de “baixa qualidade” e desinformação política. Ela deixou a empresa em agosto de 2020, mesmo mês em que o Facebook reprimiu as páginas e grupos do QAnon.
Em seu pedido de demissão, divulgado pelo “BuzzFeed News”, ela disse que o Facebook estava “conscientemente expondo os usuários a riscos de danos à integridade” e citou a lentidão da empresa em agir contra o QAnon como um dos motivos para sua saída.
“Já sabemos há mais de um ano que nossos sistemas de recomendação podem levar os usuários rapidamente ao caminho de grupos e teorias de conspiração”, escreveu. “Nesse meio tempo, o grupo extremista QAnon ganhou proeminência nacional, com candidatos ao Congresso.”
*Com informações da Forum
Caros Leitores, precisamos de um pouco mais de sua atenção
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Há pouco tempo denunciamos aqui no Antropofagista uma prática nefasta do Facebook de, primeiro, transformar em invisíveis as publicações deste blog tanto em sua página na plataforma quanto nas páginas dos administradores. Sem qualquer explicação e ou retorno, simplesmente o Facebook baniu as três páginas.
Não foram poucas as tentativas de pedido de explicação ou restabelecimento das páginas, mas foram inúteis, o que deixa claro que foi uma forma de sufocamento do blog, já que trata-se de uma plataforma de grande circulação.
Duas perguntas ficaram no ar, por que o Facebook fez isso e quem encomendou essa missa?
Logicamente que isso provocou um grande abalo no blog, o que nos levou a intensificar a luta para a recuperação financeira.
Agora vem a confirmação de dentro do próprio Facebook, a partir de uma ex-funcionária que denuncia a prática recorrente de manipulação, melhor dizendo, prática que é padrão para servir aos interesses empresariais da plataforma, claro, visando grupos, como mostra matéria abaixo.
É óbvio que a serviço da esquerda o Facebook não está.
CNN – Frances Haugen, a denunciante do Facebook que divulgou dezenas de milhares de páginas de pesquisa interna e documentos, disse que a empresa de mídia social poderia “destruí-la” por falar, mas ela acreditava que “enquanto o Facebook estiver operando no escuro, ninguém tem responsabilidade sobre ele.”
Haugen acrescentou: “Eu me apresentei porque reconheci uma verdade assustadora: quase ninguém fora do Facebook sabe o que acontece dentro do Facebook.”
A ex- gerente de produto do Facebook de 37 anos que trabalhou em questões de integridade cívica na empresa revelou sua identidade durante um segmento “60 Minutos” que foi ao ar na noite de domingo.
No programa, ela disse que os documentos mostram que o Facebook sabe que suas plataformas são usadas para espalhar ódio, violência e desinformação, e que a empresa tem tentado esconder essas evidências.
Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Investidores batem em retirada das ações do Facebook, nos EUA, devido à queda inédita do sistema que já dura 5 horas.
O tempo recorde fora ar de todos os sistemas da empresa, incluindo, o Whatsapp e o Instagram, provocam uma queda de 5% nas ações da empresa, na Nasdaq.
Quanto mais tempo o Face permanecer fora do ar, maior será a desconfiança em empresas de tecnologia.
No Brasil, Bolsa tem queda de 2,22% e dólar chega a R$ 5,45.
Papéis do Facebook negociados nos EUA fecharam o pregão com queda da ordem de 5%, na maior baixa diária desde 20 de outubro de 2020.
Em um dia de forte instabilidade nas redes sociais de Mark Zuckerberg, como Instagram, Facebook e WhatsApp, as ações do Facebook negociadas na bolsa de Nova York (Nasdaq), fecharam o pregão desta segunda-feira (4) em queda de 4,89%, a US$ 326,23, na maior baixa diária desde 20 de outubro de 2020, quando os papéis tiveram baixa de 6,3%.
A baixa acontece após alegações de uma ex-cientista de dados do Facebook, Frances Haugen, de que a rede de mídia social tem colocado o lucro antes da segurança dos usuários.
Durante programa na rede americana CNBC, Haugen alegou que a gigante da mídia social tem enganado os investidores sobre como tem lidado com o discurso de ódio e desinformação em sua plataforma.
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
Muita gente comemora o controle de conteúdo pelo Facebook, sem no entanto, se dar conta de que ele cumpre um papel cretino de sequestrar publicações, de forma silenciosa, fazendo com que elas fiquem invisíveis dentro da rede e, não satisfeito, o Facebook simplesmente abole páginas de blogs e pessoais dos donos dos blogs, sem qualquer justificativa, como ocorreu por duas vezes com os administradores e com a página do blog Antropofagista.
Lógico, a intenção é reduzir a visibilidade do blog na internet. Certamente, a plataforma não está em busca de melhoria nas práticas éticas de ninguém, pois age de uma maneira repugnante para escassear o máximo possível e de forma belicosa blogs progressistas.
Isso demonstra que tipo de rebanho o Facebook quer ter dentro do seu satélite. Essa atitude clássica nos custou não o encerramento do nosso trabalho, mas uma queda vertiginosa no movimento do blog que modificou imensamente o fluxo natural que vinha em acelerada ascensão e, logicamente, como o Antropofagista é monetizado, a arrecadação sofreu uma assombrosa queda.
Não há nada de misterioso nessa espécie de guerrilha digital que o Facebook está investindo contra a esquerda. E o que imaginávamos ser uma conquista universal, com as redes sociais, hoje, constatamos que o Facebook é daqueles terrenos minados que estabelecem limites para atender interesses escusos, tentando asfixiar pensamentos anti-hegemônicos em prol dos interesses do grande capital nacional e internacional.
Por isso seguimos aqui lutando para salvar o blog a partir de uma insistente campanha por doações dos nossos leitores para que não sejamos calados por algoritmos direcionados, censuras veladas e descaradas que estão rolando direto na internet.
Por essa razão insistimos não só em denunciar o fato, mas também redobrar nosso pedido de apoio para os que podem contribuir com qualquer valor. A conta bancária e o PIX seguem abaixo:
Apoie o Antropofagista com qualquer valor acima de R$ 1,00
No âmbito do inquérito dos atos antidemocráticos, Polícia Federal cruzou dados de relatório produzido pela Atlantic Council com dados cadastrais de provedoras de internet e vê ‘uso da estrutura da Administração Pública’ para publicações em contas classificadas como ‘inautênticas’ pelo Facebook.
Segundo reportagem do Estadão, a Polícia Federal identificou que ao menos 1.045 acessos de contas ‘inautênticas’ ligadas à aliados do presidente Jair Bolsonaro – derrubadas pelo Facebook há quase um ano – partiram de órgãos públicos como a Presidência da República, a Câmara dos Deputados, o Senado e o Comando da 1ª Brigada de Artilharia Antiaérea do Exército. Além disso, ao analisar parte dos perfis apontados pela rede social como falsos, os investigadores que atuam no inquérito dos atos antidemocráticos conseguiram identificar assinantes de redes privadas das quais partiram 844 acessos, incluindo uma provedora ligado à primeira-dama Michelle Bolsonaro.
As informações constam em relatório enviado ao Supremo Tribunal Federal pela delegada Denisse Dias Rosas Ribeiro em dezembro. No documento de 154 páginas, a delegada descreve os achados da PF, com base no relatório da Atlantic Council – instituição que realiza análise independente de remoções do Facebook por comportamento inautêntico coordenado – ao tratar de uma das hipóteses criminais sob suspeita no inquérito dos atos antidemocráticos.
Em tal linha de investigação, a PF mira o ‘movimento online de pessoas associadas para supostamente promover a difusão de ideias com potencial de causar instabilidade na ordem política e social’, identificada no relatório produzido para o Facebook. Após a plataforma divulgar a derrubada das contas apontadas no documento, os investigadores pediram para acessar os dados.
O ministro Alexandre de Moraes, relator do caso no Supremo Tribunal Federal, deferiu o acesso ao relatório, no qual, segundo os investigadores, o Facebook apontou que a derrubada das contas se deram ‘em consonância com as medidas previstas para a seguinte tipologia estabelecida pela empresa’ – “Operações executadas por um governo para atingir seus próprios cidadãos. Isso pode ser particularmente preocupante quando combinam técnicas enganosas com o poder de um Estado”
A partir do documento, a PF buscou ‘dados externos e independentes’ para checar as informações do relatório e identificou 80.552 acessos das contas apontadas no documento. Os investigadores seguiram a análise e decidiram se debruçar sobre um dos três grupos que atuavam ‘utilizando contas inautênticas e de forma coordenada’, o chamado Grupo Brasília.
“Utilizando o grupo Brasília como referência, limitou-se o escopo da análise a aproximadamente 15.528 vínculos de conta -> endereço IP. Desse universo foram solicitados às operadoras (Claro, Tim, Oi e Vivo) dados cadastrais de 5.120 vínculos de contas com endereço IP, sendo que apenas 844 acessos tiveram seus assinantes identificados (total 31 assinantes), dos quais alguns deles com vínculos com os proprietários das contas inautênticas apontadas pelo Facebook”, diz o relatório.
A PF aponta a mulher do presidente Jair Bolsonaro, Michelle, como assinante da provedora de internet na qual foi acessada a conta ‘Bolsonaro News’ e o perfil de Tercio Arnaud Thomaz, que é assessor do presidente e integra o chamado “gabinete do ódio”, núcleo instalado no terceiro andar do Palácio do Planalto. Também consta na lista um assessor parlamentar lotado no gabinete do senador Flávio Bolsonaro, Fernando Nascimento Pessoa. A partir de sua internet, teriam sido acessadas as contas ‘SnapNaro’, ‘Trump We Trust’, ‘DiDireita’, ‘Tudo é Bolsonaro’, ‘Porque o Bolsonaro?’ e ‘Snapressoras’.
Dentro da amostragem – os 15 mil acessos selecionados para análise – a PF identificou que 1.045 deles partiram de órgãos públicos – o comando da 1ª Brigada de Artilharia Antiaérea, a Presidência da República, a Câmara dos Deputados, o Senado e a Câmara dos Vereadores do Rio. Em na internet de todos os órgãos, com exceção da rede do Senado, uma das contas acessadas foi a de Tercio Arnaud Thomaz.
A PF busca identificar se mais de uma pessoa utilizava as contas sob suspeita e solicitou dados de usuários à Presidência da República, à Câmara, ao Senado e à Câmara de Vereadores do Rio. Segundo os dados fornecidos pela Câmara, um conta de nome ‘Eduardo Guimarães’ estaria ligada ao usuário de Carlos Eduardo Guimarães, listado como secretário parlamentar do deputado Eduardo Bolsonaro, e também ao usuário do próprio parlamentar.
Segundo os investigadores, está pendente o envio de dados pelo Senado e pela Presidência com relação aos dados cadastrais dos usuários ligados ao acesso das contas derrubadas pelo Facebook. A Secretaria-Geral da Presidência encaminhou dados sobre os usuários, mas ‘devido ao formato do arquivo digital apresentado foi solicitado novo envio’. Já com relação à Câmara Municipal do Rio, a instituição alegou que não possuía arquitetura de registro de logs de acesso à internet e assim não conseguiria fornecer as informações.
Em uma outra fase, a PF ainda analisou o conteúdo de 88 contas identificadas pela Atlantic Council, sendo que a análise preliminar indicou ‘provável supressão de conteúdo’ de diversas páginas. Os investigadores listaram os proprietários das contas, o número de seguidores, a quantidade de imagens publicadas, além de outros dados.
A PF lembra das pendências que existem no âmbito da linha de investigação aberta com base nas informações prestadas pelo Facebook, mas indica que apesar da apuração não ter sido concluída, ‘não há impedimento para o compartilhamento de dados e subsequente avaliação da repercussão desses fatos em outras esferas’.
COM A PALAVRA, A SECRETARIA DE COMUNICAÇÃO DO GOVERNO
A reportagem entrou em contato, por e-mail, com o órgão. O espaço está aberto para manifestações.