Categorias
Brasil

Por que algoritmos das redes e dos próprios provedores ficam cada vez mais perigosos para a sociedade brasileira

Desde que o neoliberalismo inventou o produto para, depois, inventar o consumidor, muitos absurdos foram e são praticados por esta seita fundamentalista do consumo. Mas certamente o pior deles são os algoritimos. Isso é a praga capitalista do século 21.

E é aí nesse quesito que o neoliberalismo que é, em última análise, um pensamento de extrema direita, se apropria do fascismo para estabelecer verdades absolutas com uma outra forma de ditadura, a dos algoritmos.

A sociedade ainda não percebeu que tudo isso, junto e misturado, faz parte das estratégias dos negócios do mercado. Quando tudo isso ganha força governamental, como é o caso de Bolsonaro, faz-se a fusão entre os interesses políticos e comerciais no mesmo balaio e, longe de ter um pensamento minimamente refinado, as práticas de Bolsonaro chamam a atenção do planeta e, por isso, o Brasil está cada vez mais fechando portas para o mundo, porque, com Bolsonaro, o país se transformou no pior núcleo do neoliberalismo fascista.

Nós aqui do Antropofagista, temos insistido, e muito, em campanhas de doações para sustentar o blog, porque, assim como tantos outros blogs e canais do Youtube, estamos sofrendo um boicote nada silencioso de tudo o que envolve a suposta inteligência artificial que hoje opera na internet a favor da extrema direita, como confessaram os donos do Facebook e do Twitter.

Então, a senha é, qualquer pensamento progressista, sobretudo dos críticos a essa praga fascista, operar com os algoritmos no sentido oposto para que o debate e as informações se tornem cada vez mais invisíveis nas redes.

E quando isso não é possível, determinados posts ou mesmo vídeos no Youtube são desmonetizados, como ocorre frequentemente com o jornalista Bob Fernandes.

No nosso caso, o do Antropofagista, é muito simples de aferir o que está acontecendo, porque simplesmente, na medida em que aumenta o número de inscritos no blog e no sentido inversamente proporcional, caem os acessos e o trâmite, numa clara tentativa de sufocar financeiramente o nosso trabalho.

Mas para explicar melhor o que está ocorrendo, sugerimos que leiam esta matéria feita da BBC Brasil com Stuart Russell, professor da Universidade da Califórnia em Berkeley que dedica-se há décadas ao estudo da Inteligência Artificial (IA).

BBC – Russell usa a metáfora de um gênio de lâmpada atendendo aos desejos de seu mestre: “você pede ao gênio que te torne a pessoa mais rica do mundo, e assim acontece – mas só porque o gênio fez o resto das pessoas desaparecerem”, diz.

“(Na IA) construímos máquinas com o que chamo de modelos padrão: elas recebem objetivos que têm de conquistar ou otimizar, (ou seja), para os quais têm de encontrar a melhor solução possível. E aí levam a cabo essa ação.”

Mesmo que essa ação seja, na prática, prejudicial aos humanos, ele argumenta.

“Se construirmos a Inteligência Artificial de modo a otimizar um objetivo fixo dado por nós, elas (máquinas) serão quase como psicopatas – perseguindo esse objetivo e sendo completamente alheias a todo o restante, até mesmo se pedirmos a elas que parem.”

Um exemplo cotidiano disso, opina Russell, são os algoritmos que regem as redes sociais – que ficaram tão em evidência com a pane global que afetou Facebook, Instagram e WhatsApp durante cerca de seis horas em uma segunda-feira no início de outubro.

A tarefa principal desses algoritmos é favorecer a experiência do usuário nas redes sociais – por exemplo, coletando o máximo de informações possível sobre esse usuário e fornecendo a ele conteúdo que se adeque a suas preferências, fazendo com que ele permaneça mais tempo conectado.

Mesmo que isso ocorra às custas do bem-estar desse usuário ou da cidadania global, prossegue o pesquisador.

“As redes sociais criam vício, depressão, disfunção social, talvez extremismo, polarização da sociedade, talvez contribuam para espalhar desinformação. E está claro que seus algoritmos estão projetados para otimizar um objetivo: que as pessoas cliquem, que passem mais tempo engajadas com o conteúdo”, pontua Russell.

“E, ao otimizar essas quantidades, podem estar causando enormes problemas para a sociedade.”

No entanto, prossegue Russell, esses algoritmos não sofrem escrutínio o bastante para que possam ser verificados ou “consertados” – dessa forma, seguem trabalhando para otimizar seu objetivo, indiferentes ao dano colateral.

“(As redes sociais) não apenas estão otimizando a coisa errada, como também estão manipulando as pessoas, porque ao manipulá-las consegue-se aumentar seu engajamento. Se posso tornar você mais previsível, por exemplo transformando você em uma eco-terrorista extremista, posso te mandar conteúdo eco-terrorista e ter certeza de que você vai clicar, e assim maximizar meus cliques.”

Essas críticas foram reforçadas no início de outubro pela ex-funcionária do Facebook (e atual informante) Frances Haugen, que depôs em audiência no Congresso americano e afirmou que os sites e aplicativos da rede social “trazem danos às crianças, provocam divisões e enfraquecem a democracia”. O Facebook reagiu dizendo que Haugen não tem conhecimento suficiente para fazer tais afirmações.

IA com ‘valores humanos’

Russell, por sua vez, detalhará suas teorias a um público de pesquisadores brasileiros em 13 de outubro, durante a conferência magna do encontro da Academia Brasileira de Ciências, virtualmente.

O pesquisador, autor de Compatibilidade Humana: Inteligência Artificial e o Problema de Controle (sem versão no Brasil), é considerado pioneiro no campo que chama de “Inteligência Artificial compatível com a existência humana”.

“Precisamos de um tipo completamente diferente de sistemas de IA”

Esse tipo de IA, prossegue, teria de “saber” que possui limitações, que não pode cumprir seus objetivos a qualquer custo e que, mesmo sendo uma máquina, pode estar errado.

“Isso faria essa inteligência se comportar de um modo completamente diferente, mais cauteloso, (…) que vai pedir permissão antes de fazer algo quando não tiver certeza de se é o que queremos. E, no caso mais extremo, que queira ser desligada para não fazer algo que vá nos prejudicar. Essa é a minha principal mensagem.”

A teoria defendida por Russell não é consenso: há quem não considere ameaçador esse modelo vigente de Inteligência Artificial.

Um exemplo famoso dos dois lados desse debate ocorreu alguns anos atrás, em uma discordância pública entre os empresários de tecnologia Mark Zuckerberg e Elon Musk.

Uma reportagem do The New York Times contou que, em um jantar ocorrido em 2014, os dois empresários debateram entre si: Musk apontou que “genuinamente acreditava no perigo” de a Inteligência Artificial se tornar superior e subjugar os humanos.

Zuckerberg, porém, opinou que Musk estava sendo alarmista.

Em entrevista no mesmo ano, o criador do Facebook se considerou um “otimista” quanto à Inteligência Artificial e afirmou que críticos, como Musk, “estavam pintando cenários apocalípticos e irresponsáveis”.

“Sempre que ouço gente dizendo que a IA vai prejudicar as pessoas no futuro, penso que a tecnologia geralmente pode ser usada para o bem e para o mal, e você precisa ter cuidado a respeito de como a constrói e como ela vai ser usada. Mas acho questionável que se argumente por reduzir o ritmo do processo de IA. Não consigo entender isso.”

Já Musk argumentou que a IA é “potencialmente mais perigosa do que ogivas nucleares”.

Um lento e invisível ‘desastre nuclear’

Stuart Russell se soma à preocupação de Musk e também traça paralelos com os perigos da corrida nuclear.

“Acho que muitos (especialistas em tecnologia) consideram esse argumento (dos perigos da IA) ameaçador porque ele basicamente diz: ‘a disciplina a que nos dedicamos há diversas décadas é potencialmente um grande risco’. Algumas pessoas veem isso como ser contrário à Inteligência Artificial”, sustenta Russell.

“Mark Zuckerberg acha que os comentários de Elon Musk são anti-IA, mas isso me parece ridículo. É como dizer que a advertência de que uma bomba nuclear pode explodir é um argumento antifísica. Não é antifísica, é um complemento à física, por ter-se criado uma tecnologia tão poderosa que pode destruir o mundo. E de fato tivemos (os acidentes nucleares de) Chernobyl, Fukushima, e a indústria foi dizimada porque não prestou atenção suficiente aos riscos. Então, se você quer obter os benefícios da IA, tem de prestar atenção aos riscos.”

O atual descontrole sobre os algoritmos das redes sociais, argumenta Russell, pode causar “enormes problemas para a sociedade” também em escala global, mas, diferentemente de um desastre nuclear, “lentamente e de modo quase invisível”.

Como, então, reverter esse curso?

Para Russell, talvez seja necessário um redesenho completo dos algoritmos das redes sociais. Mas, antes, é preciso conhecê-los a fundo, opina.

‘Descobrir o que causa a polarização’

Elon Musk

Elon Musk já afirmou considerar a IA ‘potencialmente mais perigosa do que ogivas nucleares’

Russell aponta que no Facebook, por exemplo, nem mesmo o conselho independente encarregado de supervisionar a rede social tem acesso pleno ao algoritmo que faz a curadoria do conteúdo visto pelos usuários.

“Mas há um grupo grande de pesquisadores e um grande projeto em curso na Parceria Global em IA (GPAI, na sigla em inglês), trabalhando com uma grande rede social que não posso identificar, para obter acesso a dados e fazer experimentos”, diz Russell.

“O principal é fazer experimentos com grupos de controle, ver com as pessoas o que está causando a polarização social e a depressão, e (verificar) se mudar o algoritmo melhora isso.”

“Não estou dizendo para as pessoas pararem de usar as redes sociais, nem que elas são inerentemente más”, prossegue Russell. “(O problema) é a forma como os algoritmos funcionam, o uso de likes, de subir conteúdos (com base em preferências) ou de jogá-los para baixo. O modo como o algoritmo escolhe o que colocar no seu feed parece ser baseado em métricas prejudiciais às pessoas. Então precisamos colocar o benefício do usuário como objetivo principal e isso vai fazer as coisas funcionarem melhor e as pessoas ficarão felizes em usar seus sistemas.”

Não haverá uma resposta única sobre o que é “benéfico”. Portanto, argumenta o pesquisador, os algoritmos terão de adaptar esse conceito para cada usuário, individualmente – uma tarefa que, ele próprio admite, não é nada fácil. “Na verdade, essa (área das redes sociais) seria uma das mais difíceis onde se colocar em prática esse novo modelo de IA”, afirma.

“Acho que realmente teriam que começar do zero a coisa toda. É possível que acabemos entendendo a diferença entre manipulação aceitável e inaceitável. Por exemplo, no sistema educacional, manipulamos as crianças para torná-las cidadãos conhecedores, capazes, bem-sucedidos e bem integrados – e consideramos isso aceitável. Mas se o mesmo processo tornasse as crianças terroristas, seria uma manipulação inaceitável. Como, exatamente, diferenciar entre ambos? É uma questão bem difícil. As redes sociais realmente suscitam esses questionamentos bastante difíceis, que até filósofos têm dificuldade em responder.”

 

Caros Leitores, precisamos de um pouco mais de sua atenção

Nossos apoiadores estão sendo fundamentais para seguirmos nosso trabalho. Leitores, na medida de suas possibilidades, têm contribuído de forma decisiva para isso. Agradecemos aos que formam essa comunidade e convidamos todos que possam a fortalecer essa corrente progressista. Seu apoio é fundamental nesse momento crítico que o país atravessa para continuarmos nossa labuta diária para trazer informação de qualidade e independência.

Apoie o Antropofagista com qualquer valor acima de R$ 1,00

Caixa Econômica
Agência 0197
Operação 1288
Poupança: 772850953-6
Arlinda Celeste Alves da Silveira
CPF: 450. 139.937-68
PIX: 45013993768

Agradecemos imensamente a sua contribuição