Clique e Assine por apenas 8,90/mês

Coronavírus: como as redes sociais estão lidando com notícias falsas?

Facebook, Twitter e cia. adotaram, ainda que com falhas, inteligência artificial para moderar conteúdo. No Brasil, figuras como Flávio Bolsonaro e Olavo de Carvalho levaram advertência.

Por Rafael Battaglia - 25 mar 2020, 21h22

Conspiração do governo chinês. Curas milagrosas com gargarejo e outros remédios. “É só uma gripezinha”. Nas últimas semanas, você deve ter ouvido coisas do tipo em relação ao coronavírus. Com o avanço da pandemia, surge também a desinformação sobre ela.

Lutar contra notícias falsas é tarefa diária de instituições como a Organização Mundial da Saúde (OMS), bem como de cientistas, jornalistas e profissionais da saúde. Mas um dos meios em que elas mais se disseminam são as redes sociais. O que essas plataformas, então, estão fazendo para evitá-las em tempos de coronavírus?

A resposta é inteligência artificial. A pandemia obrigou que boa parte dos funcionários de Facebook, Twitter e cia. aderissem ao distanciamento social e trabalhassem de casa. Com isso, as empresas estão automatizando a moderação de conteúdo.

Veja a seguir como as principais plataformas têm se adaptado a essa e outras medidas – e as críticas dos usuários que já começaram a surgir.

Continua após a publicidade

Facebook

A rede social anunciou a mudança no dia 16 de março. Mas logo no dia seguinte, recebeu reclamações de alguns usuários. De acordo com eles, a plataforma estaria bloqueando conteúdos legítimos – inclusive, sinalizando como spam postagens e links úteis relacionados ao coronavírus.

Pelo Twitter, o vice-presidente de integridade da empresa, Guy Rosen, disse que o problema foi causado por um bug no sistema anti-spam da plataforma, e que não há relação com as mudanças na moderação de conteúdo.

Boa parte desses moderadores, vale dizer, são terceirizados pelo Facebook. Sabe quando você denuncia um vídeo violento ou uma fake news de política? Esses conteúdos vão direto para eles, que ganham por hora para avaliar se aquilo fere as diretrizes da plataforma. Na última semana, foi revelado que esses terceirizados não ganharam o bônus de US$ 1 mil que o Facebook deu aos seus funcionários para que eles enfrentassem o período de pandemia.

Continua após a publicidade

Twitter

De acordo com o site Vox, o Twitter afirmou que dependerá cada vez mais das máquinas para remover conteúdos abusivos ou que foram manipulados, mas reconheceu que a I.A. não substitui a moderação humana.

Dessa forma, afim de evitar erros, a empresa não suspenderá contas permanentemente a partir do método automatizado. Mas a vigilância de conteúdos falsos sobre coronavírus já tem surtido efeito. No Brasil, o Twitter apagou uma mensagem de Allan dos Santos, do site Terça Livre, em que ele duvidava da existência da doença.

Além disso, a plataforma suspendeu temporariamente os perfis do senador Flávio Bolsonaro e do ministro do Meio Ambiente, Ricardo Salles. A suspensão, de 12 horas, veio após a exclusão de algumas mensagens publicadas por ambos. A justificativa do Twitter é a mesma de outros casos: as postagens poderiam colocar as pessoas em risco em meio a pandemia.

Continua após a publicidade

WhatsApp

A plataforma lançou no dia 18 uma central informativa para conscientizar os usuários sobre a Covid-19. O objetivo é evitar o compartilhamento de notícias falsas e divulgar conteúdos oficiais de órgãos de saúde.

A ideia do site é também orientar médicos, educadores, ONGs e empresas locais a como usar o WhatsApp de forma mais efetiva durante a pandemia. Ele foi feito em parceria com a Unicef (Fundo das Nações Unidas para a Infância), o Pnud (Programa das Nações Unidas para o Desenvolvimento) e com a OMS – que, inclusive, lançou um chatbot no WhatsApp, permitindo que as pessoas tirem d��vidas e recebam informações diretamente por lá. Esse robô, por ora, está disponível apenas em inglês.

YouTube

Continua após a publicidade

O YouTube é outro que recorreu à inteligência artificial para ajudar na moderação de conteúdo durante esse período. Em seu blog oficial, a empresa admite que alguns conteúdos podem ser removidos por acidente – mesmo que não violem as políticas da plataforma.

O sistema, no entanto, não chegará ao ponto de emitir strikes – um tipo de punição mais severa dentro do YouTube, que pode levar ao banimento da conta.

No Brasil, o YouTube tirou do ar no dia 23 um vídeo do escritor Olavo de Carvalho, que duvidava da existência de um surto de coronavírus. A plataforma entendeu que o conteúdo feria as suas diretrizes. Elas deixam claro que remoções serão feitas caso “incentivem as pessoas a não procurar tratamento médico ou que afirmem que substâncias nocivas são benéficas à saúde”.

Publicidade