networks 1987215 1280
Ilustração: geralt/Pixabay.

A Covid-19 está intensificando as falhas da moderação de conteúdo na web

A pandemia tem evidenciado o jeito extremamente falho com que as grandes plataformas tecnológicas lidam com discurso de ódio on-line, desinformação, e conteúdo ilegal

Este post é parte da Global Voices, uma iniciativa internacional de jornalismo baseado em uma licença Creative Commons. O objetivo é cobrir diferentes realidades através de uma comunidade de jornalistas em diferentes partes do mundo. Conheça o projeto.

A postagem a seguir teve a coautoria dos escritores convidados Solana Larsen, editora do Relatório de Saúde da Internet da Mozilla, e Leil Zahra, membro da Mozilla e integrante da WITNESS.

À medida que as pessoas em todo o mundo se refugiam da pandemia da Covid-19, a internet se torna um recurso ainda mais vital como nunca antes ocorreu. Agora, milhões de nós se conectam, solidarizam, aprendem, trabalham e se divertem on-line. 

De certa forma, a pandemia revelou o potencial da internet como recurso público global. Mas também tem revelado o que a internet tem de prejudicial: as pessoas que não têm acesso estão agora em uma desvantagem ainda maior. Além disso, nesse momento as falhas de privacidade e segurança na tecnologia do consumidor estão exponencialmente tornando muito mais pessoas vulneráveis. 

Um problema preocupante que a pandemia traz à tona é o ecossistema da moderação de conteúdo defectivo da internet. Ou seja, o jeito extremamente falho com que as grandes plataformas tecnológicas lidam com discurso de ódio on-line, desinformação, e conteúdo ilegal. Apesar dos muitos avanços, o Facebook, YouTube, entre outras plataformas geralmente moderam os conteúdos de maneira leviana ou simplesmente perigosa: conteúdo nocivo é negligenciado, e conteúdo aceitável é removido injustamente. Essas decisões frequentemente afetam de forma desproporcional pessoas do hemisfério sul as quais falam idiomas que não estão incluídos nas plataformas.

Por enquanto, nós estamos diante de um ponto de inflexão. Será que as falhas de moderação de conteúdo irão se tornar ameaças ainda maiores? Ou será que essa crise pode ser um trampolim para mudanças positivas e duradouras na forma como nos comunicamos on-line? 

Um dos problemas mais preocupantes com a moderação de conteúdo é quem — ou o que — faz a moderação. Com informações falsas relacionadas à pandemia dominando as plataformas e muitos dos moderadores humanos impossibilitados de trabalhar, várias plataformas estão recorrendo a inteligência artificial. As limitações dessa abordagem são evidentes. A filtragem automática tem falhado em impedir que informações falsas sobre a Covid-19 se alastrem rapidamente colocando em risco a saúde pública. As plataformas estão repletas de postagens sugerindo que beber água sanitária pode curar o vírus, ou que a tecnologia 5G está de alguma forma espalhando a doença. 

A filtragem automática tem falhado em impedir que informações falsas sobre a Covid-19 se alastrem rapidamente colocando em risco a saúde pública.

Além de deixar passar informações falsas, a moderação automatizada pode acidentalmente remover conteúdo de qualidade. Perguntas sinceras de usuários, conversas usando vocabulário ou contextos locais, podem ser erroneamente classificados como questionáveis. Em meio à pandemia, a moderação automatizada no Facebook resultou na remoção equivocada de uma grande quantidade de conteúdo, incluindo links para artigos de notícias sobre a Covid-19. Em março, o Facebook alegou que a causa foi um “problema” técnico, e disse que havia restaurado o conteúdo removido. No entanto, o episódio levanta sérias questões sobre a eficiência de tais sistemas e, além disso, gera dúvidas sobre a transparência do Facebook. Quando o YouTube anunciou em março que havia aumentado a filtragem automatizada devido à Covid-19, declarou: “Ao fazermos isso, usuários e criadores poderão ver um aumento na remoção de vídeos, inclusive vídeos que talvez não violem as regras da plataforma.” Igualmente, o Twitter esclareceu no mesmo mês que sua moderação automatizada “algumas vezes interpreta mal o contexto que nossa equipe estabelece e isso pode gerar erros”.

Leia Mais
Fachadas urbanas contra o coronavírus
O diário pessoal do coronavírus de Charli XCX
Coronavírus e a epidemia de fake news
Fachadas do mundo todo contra o corona
Contágio social: um e-book sobre o coronavírus

Para piorar as coisas, quando um conteúdo é injustamente removido ou uma conta é suspensa, o processo de apelação pode não ser transparente. Em muitos casos, os usuários ficam sem entender os motivos por trás da remoção do conteúdo ou a suspensão de uma conta. E mesmo antes da pandemia, o contexto tem sido a questão principal nos debates sobre moderação. Por exemplo, questiona-se se uma abordagem americana de uso da linguagem deva ou não ser aplicada internacionalmente.

Um problema é a falha da tecnologia na moderação de conteúdo e outro são as diretrizes injustas. Nos Estados Unidos em alguns países europeus, as grandes plataformas tecnológicas estão bem atentas em cumprir as leis locais e defender os compromissos com suas próprias políticas internas. Em outros lugares, isso não acontece. Durante a eleição na Nigéria em 2018, a pesquisadora e colaboradora da Global Voices Rosemary Ajayi, e um grupo de colegas, catalogaram centenas de tuítes que divulgavam informações falsas, e ficaram chocados com a imprevisível e incoerente taxa de resposta ao relatório sobre essa atividade. “Se você relatar algo sério no dia da eleição, e eles respondem uma semana depois, de que adianta?”, disse Ajayi. A ideia é igualmente assustadora no contexto atual: se a plataforma remove uma informação falsa sobre a Covid-19 depois de milhões de pessoas já terem visto, o estrago já foi feito.

Esses são apenas dois dos vários problemas de longa data sobre a questão da moderação de conteúdo. Em um estudo recente realizado pela Mozilla sobre o ambiente da rede social, nós analisamos vários outros. Nós conversamos com o SIN, um grupo polonês, sem fins lucrativos, empenhado na redução de danos causados pelas drogas, que foi suspenso pelo Facebook e não conseguiu recorrer da decisão. Também conversamos com o grupo de pesquisa sobre direitos humanos Syrian Archive, que afirma ser frequente a exclusão de evidências de violações dos direitos humanos em guerra pelas plataformas. Não é difícil de perceber como casos semelhantes a esses também podem ser especialmente sérios em época de pandemia. E se informações cruciais de saúde desaparecem, ou se violações dos direitos humanos relacionadas ao confinamento forem erroneamente removidas? 

Não há panaceia para esses problemas. Porém, uma melhor transparência sobre o que está sendo removido, quando, e por que, bem como quantos dos que foram removidos foram contestados e restabelecidos, poderia ajudar muito mais os pesquisadores e as comunidades afetadas a notificar as plataformas e os criadores das diretrizes. Os relatórios de transparência das principais plataformas, contudo, têm se tornado mais detalhados ao longo dos anos, em parte graças à pressão da sociedade civil, incluindo os adeptos da The Santa Clara Principles. Essa iniciativa comunitária que visa traçar as linhas de base para transparência e responsabilidade na moderação de conteúdo foi lançada em 2018, e várias outras plataformas passaram a apoiá-la. Em março, observando que os princípios se beneficiariam de uma atualização, a Fundação Fronteira Eletrônica (EFF) iniciou um apelo global por sugestões (o prazo final é 30 de junho) de como melhor atender as necessidades de vozes marginalizadas que são fortemente afetadas.

Em diferentes contextos ao redor do mundo as pessoas têm tão pouco conhecimento sobre o esquema de moderação de conteúdo e processo de apelação, que mesmo uma prova empírica de usuários afetados seria um recurso valioso. O site Silenced.online é uma nova ferramenta de base visando a colaboração coletiva e o debate de experiências de remoções injustas em todo o mundo. O objetivo é criar uma rede composta por instituições e indivíduos que trabalham ou queiram trabalhar com remoção e moderação de conteúdo.

Outros grupos hão de concordar que é fundamental que a sociedade civil e pesquisadores se envolvam nas questões de moderação de conteúdo e regulamentação das plataformas. Escândalos e crises tendem a dar origem a novas regras e regulamentações, ou a exigir mais automação, que não são necessariamente baseadas em análises independente daquilo que funciona. Novas abordagens para a criação de mecanismos de prestação de contas e apelação, tais como o Comitê de Supervisão do Facebook exigem atenção mundial.

Conforme descrito acima, a pandemia da Covid-19 está trazendo à tona as falhas na moderação de conteúdo, porém, os problemas são de longa data, principalmente em questões relacionadas à saúde e desinformação. Tais problemas exigem uma mudança no funcionamento diário das plataformas, e em como elas prestam contas. Uma atenção maior e foco no problema pode fomentar algo de bom. Isso pode desencadear mais transparência, mais tecnologia humana, melhores leis, e uma internet mais saudável.

Ilustração via Pixabay.

Traduzido por Rosângela Rodrigues.