Debate
Compartilhe
Temas
Marcelo Frullani Lopes
Grupos radicais tendem a criar suas próprias plataformas digitais para fugir de restrições de conteúdo, que se mostraram mais necessárias durante a pandemia
As grandes empresas de tecnologia que administram redes sociais estão, mais do que nunca, sentindo-se pressionadas a alterar suas políticas de combate à desinformação e ao discurso de ódio. A pandemia de covid-19 tem exercido forte influência nesse sentido, em virtude da constatação de que notícias falsas ou distorcidas envolvendo a doença causam danos à saúde e à vida das pessoas. Trata-se de um momento muito importante, em que decisões tomadas tanto por essas empresas quanto por órgãos de regulação estatais podem causar impactos profundos no cenário do debate público ao longo dos próximos anos.
No Brasil, vários movimentos indicam a mudança de postura das plataformas digitais. Publicações em que o presidente Jair Bolsonaro negava a gravidade da pandemia e aparecia, em vídeos, cumprimentando pessoas na rua e gerando aglomerações foram excluídas do Twitter, do Facebook e do Instagram recentemente. No início de julho, foram banidas algumas contas vinculadas a assessores do presidente e de seus filhos por comportamento que fere os termos de uso do Facebook. Já um projeto de lei voltado ao combate à desinformação foi aprovado no Senado Federal .
O Twitter também fechou o cerco contra Donald Trump, inserindo avisos contra o conteúdo inverídico em algumas de suas publicações. O presidente dos EUA colocava em dúvida a confiabilidade do voto pelo correio no país, que pode se mostrar necessário em decorrência das recomendações de distanciamento social serem a principal forma de controlar a disseminação do novo coronavírus. Em resposta à ação da plataforma, Trump expediu uma ordem executiva com potencial de ampliar a responsabilização das empresas por conteúdos postados pelos usuários. Apesar de o Facebook ter discordado dessa postura no início, agora se vê obrigado a repensar seus planos, em função de uma campanha de boicote à publicidade em suas plataformas, apoiada por uma série de grandes empresas. O Reddit excluiu um fórum de apoiadores de Trump , enquanto o Twitch suspendeu sua conta de campanha.
Essa pressão sobre as redes sociais não é uma novidade. Há muitos anos discutem-se formas de combate à desinformação e ao discurso de ódio nessas plataformas. Porém, boa parte delas sempre manteve uma retórica de defesa da liberdade de expressão quase absoluta. São vários os motivos que explicam esse discurso, mas dois devem ser destacados: em primeiro lugar, a estratégia de não serem confundidas com empresas de mídia, e assim evitar a responsabilização pelo conteúdo postado pelos usuários; em segundo lugar, como quase todas estão sediadas nos EUA, seguem a doutrina bastante protetora da liberdade de expressão do país, segundo a qual devem ser limitadas apenas as “incitações à ação legal iminente”, isto é, quando há risco de que a expressão possa causar algum dano concreto.
Em anos anteriores, as gigantes de tecnologia precisaram reconhecer que, em alguns casos, notícias falsas e discurso de ódio podem contribuir concretamente para a violência. O Facebook admitiu, por exemplo, que a disseminação de notícias falsas contribuiu diretamente para diversos ataques perpetrados contra membros da minoria muçulmana rohingya em Mianmar. O WhatsApp, do mesmo grupo econômico do Facebook, limitou o número de compartilhamento de mensagens após informações falsas motivarem linchamentos na Índia .
Os artigos publicados no nexo ensaio são de autoria de colaboradores eventuais do jornal e não representam as ideias ou opiniões do Nexo. O Nexo Ensaio é um espaço que tem como objetivo garantir a pluralidade do debate sobre temas relevantes para a agenda pública nacional e internacional. Para participar, entre em contato por meio de ensaio@nexojornal.com.br informando seu nome, telefone e email.
Destaques