O Globo
Opinião – Internet
O algoritmo imoral
Não existe neutralidade técnica ou axiológica nas redes sociais e buscadores como pretendem. Os resultados são frequentemente manipulados
Há dias, “The Australian”, um dos principais jornais da Austrália, publicou reportagem sobre um documento da filial do Facebook sobre como identificar adolescentes emocionalmente frágeis. A “metodologia” teria sido oferecida a anunciantes como ferramenta de marketing segmentado, procedimento passível de ser enquadrado criminalmente como abuso contra pessoa vulnerável.
O Facebook respondeu que “não oferece ferramentas para chegar a pessoas com base em seu estado emocional”, mas admitiu a existência de uma “análise, feita por pesquisador australiano com o objetivo de ajudar marqueteiros a entender como as pessoas se expressam no Facebook”.
Não é a primeira vez que o Facebook, como outras redes sociais e buscadores, recorre a chicanas para eximir-se de responsabilidade. Foi o que ocorreu com recentes casos de assassinato (de um idoso nos EUA, e de um bebê, na Tailândia) cujas imagens foram postadas ao vivo; com grupos de pedofilia no mesmo Facebook, como denunciado pela BBC, e com anúncios (inclusive públicos), exibidos em sites promotores de ódio e terrorismo. Eé o caso da propagação em escala industrial de notícias falsas e fraudes nos dados de visualização de publicidade, com o uso de robôs.
O argumento para eximir-se de responsabilidade é tão falso quanto a “notícia”: “Marisa fotografada na Itália. Morte da mulher de Lula é mentira, Entenda!”, difundida pelo site “Pensa Brasil”, notória fonte de notícias falsas, como revelado pela “Folha de S.Paulo” em 19/2 último. Não por acaso, se você digitar “Pensa” no Google, como fiz em 07/5, a primeira opção oferecida pelo buscador é... “Pensa Brasil”.
Não há neutralidade técnica ou axiológica nas redes sociais e buscadores como pretendem. Os resultados são frequentemente manipulados.
São provas disso o processo contra o Google que tramita na União Europeia, evidenciando que sites de negócios do próprio buscador têm prioridade sobre os dos concorrentes, e as notícias falsas disseminadas pelo Facebook na campanha eleitoral americana.
O argumento também é falso porque alega que “é o algoritmo...”. Ocorre, assim, uma antropomorfização de um programa de computador, ao mesmo tempo transformado em força telúrica contra a qual os mortais nada podem. Já os humanos que o desenvolveram e tomam as decisões nas empresas perdem a humanidade, escravos de uma “inteligência artificial”.
Na verdade, algoritmos fazem o que foram programados para fazer. É possível criar parâmetros para que façam algumas “opções”, mas tão limitados que o algoritmo tanto ignora a pedofilia em certas imagens (exceto as muito explícitas) quanto censura foto de campanha de aleitamento materno porque associa seio à mostra a pornografia. Correções de casos como estes só acontecem quando cobradas por internautas.
O problema de fundo é que só humanos podem discernir o que algoritmos não detectam. Redes sociais e congêneres se negam a reconhecê-lo, pois isso implica admitir que são empresas de mídia e não plataformas (o que tem consequências, inclusive jurídicas), abala seu “modelo de negócio”, causando uma explosão de custos. É preciso gente para produzir e editar conteúdo, evitando que crimes sejam praticados e exibidos, para que o anúncio vá para o público desejado, e não para outro seguidor de canais criminosos. É preciso gente habilitada para fazer jornalismo conforme as boas práticas numa sociedade democrática. E é preciso gente educada e com senso crítico para entender a importância dessas diferenças e não aceitar o que o algoritmo imoral lhe oferece.
Carlos Alves Müller é jornalista e consultor da Associação Nacional de Jornais