O dia 8 de janeiro de 2023 marcou um dos episódios mais dramáticos da história recente do Brasil, quando atos golpistas invadiram as sedes dos Três Poderes em Brasília. Este evento também trouxe à tona a falência do sistema de autorregulação das redes sociais, como destacou o ministro Alexandre de Moraes, do STF. Durante um julgamento sobre a responsabilidade das plataformas digitais pelos conteúdos publicados por seus usuários, Moraes afirmou que os acontecimentos de 8 de janeiro expuseram a ineficácia das big techs em moderar conteúdo de forma eficiente, especialmente no que diz respeito à disseminação de discursos de ódio e incitação à violência.
A Falha das Big Techs em Moderar Conteúdos Prejudiciais
As redes sociais, como Meta (Facebook, Instagram), Google (YouTube) e Twitter, têm ferramentas avançadas para monitorar e remover conteúdos nocivos, mas, como demonstrado no caso dos atos golpistas, muitas vezes falham em agir de forma proativa. Para Moraes, essa omissão não pode ser justificada, já que, apesar da possibilidade tecnológica de remoção de conteúdos, faltou empenho das plataformas. Ele enfatizou que não se pode mais defender a eficácia do sistema de autorregulação, que se mostrou insuficiente para evitar a propagação de conteúdos prejudiciais.
O Julgamento do STF e a Responsabilidade das Plataformas
O julgamento em curso no Supremo discute a constitucionalidade do artigo 19 do Marco Civil da Internet, que estabelece que as plataformas só podem ser responsabilizadas por conteúdos de terceiros se desobedecerem uma ordem judicial de remoção. Para o STF, a questão central é até que ponto as plataformas devem ser responsáveis pela moderação de conteúdo e o que ocorre quando elas falham em cumprir essa função.
O Futuro da Regulação das Redes Sociais no Brasil
O cenário gerado pelo 8 de janeiro levanta uma reflexão importante: até onde as plataformas digitais podem se eximir de responsabilidade, se têm os recursos para prevenir e combater a desinformação, mas não o fazem? Para o STF, se a autorregulação não funcionar, uma regulamentação mais rígida será necessária.
Este julgamento poderá definir um novo padrão para a responsabilidade das big techs no Brasil, exigindo delas um papel mais ativo na moderação de conteúdos. Ao mesmo tempo, é crucial encontrar um equilíbrio para que a liberdade de expressão não seja cerceada. As plataformas precisam entender que, com grande poder, vem também grande responsabilidade, e se não cumprirem seu papel de moderar adequadamente o conteúdo, o Estado poderá ter que intervir.
Autoria de Sthefano Cruvinel por WMB Marketing Digital
Acompanhe mais sobre o assunto em minhas redes sociais.