Antonio Gelfusa Junior, publicitário e especialista em educação e redes sociais
Para especialista, a falta de regulação efetiva tem permitido que a desinformação se alastre com rapidez. Sem mecanismos mais ágeis de controle, criou-se um ambiente onde discursos de ódio e fake news circulam sem obstáculos, colocando em risco o bem-estar coletivo.
O Supremo Tribunal Federal (STF) agendou para 27 de novembro o julgamento de três ações que poderão moldar o futuro da regulação das redes sociais no Brasil. A discussão central envolve a responsabilidade das plataformas na remoção de conteúdos que disseminam desinformação e discurso de ódio, sem depender de uma ordem judicial prévia – uma questão que tem provocado intenso debate nos últimos anos.
Para o publicitário e especialista em educação e redes sociais Antonio Gelfusa Junior, é urgente que se estabeleçam regras claras para as plataformas, de forma a conter a propagação de conteúdos nocivos. “É necessário que as plataformas tenham uma responsabilidade maior na remoção de conteúdos prejudiciais e não esperem sempre por uma decisão judicial. O tempo de resposta é fundamental para mitigar o impacto da desinformação e proteger a sociedade”, defende ele.
As ações liberadas para julgamento em agosto têm como relatores os ministros Luiz Fux, Edson Fachin e Dias Toffoli. Entre os casos, a ação de Toffoli analisa a constitucionalidade do Marco Civil da Internet (Lei 12.965/2014), que atualmente exige uma ordem judicial para que plataformas sejam responsabilizadas por atos ilícitos cometidos por seus usuários. Fux avalia se as empresas que hospedam sites devem ser obrigadas a remover conteúdos ofensivos sem intervenção da Justiça. Por fim, Fachin julga a legalidade do bloqueio do WhatsApp, um serviço essencial para milhões de brasileiros.
Autorregulação falhou
Gelfusa destaca que a falta de regulação efetiva tem permitido que a desinformação se alastre com rapidez: “Sem mecanismos mais ágeis de controle, criamos um ambiente onde discursos de ódio e fake news circulam sem obstáculos, colocando em risco o bem-estar coletivo. A autorregulação falhou, e é hora de a Justiça dar um passo à frente”.
O especialista ainda sugere que as plataformas implementem medidas específicas, como a regulamentação de um CPF por usuário e a exigência de documentação de comprovante de residência. No caso de empresas, seriam solicitados CNPJ e certidões – o que já acontece com os perfis do Google para confirmação e campanhas de publicidade.
“As plataformas devem aperfeiçoar os canais para receber denúncias e, com uma curadoria profissional, remover conteúdos claramente mentirosos ou criminosos. Também é preciso reforçar o combate aos perfis que cometem crimes raciais, sexuais e contra crianças e idosos”, acrescenta.
Apesar de defender uma maior responsabilização das plataformas, o especialista ressalta que a regulação precisa ser criteriosa. “A liberdade de expressão é um pilar democrático e precisa ser preservada. No entanto, não podemos confundir liberdade com permissão para disseminar mentiras e discursos prejudiciais. O julgamento do STF será essencial para encontrar esse ponto de equilíbrio”, salienta o especialista.
Recurso à autocensura
Outro risco identificado por Gelfusa é que, sem uma orientação clara, as plataformas podem recorrer à autocensura, bloqueando preventivamente conteúdos legítimos por medo de sanções. “Uma regulação bem definida precisa estabelecer limites precisos e mecanismos de contestação, para que a moderação de conteúdo não seja usada de forma indiscriminada. O que queremos é segurança jurídica e transparência”, assinala.
Antonio Gelfusa Junior também alerta para a necessidade de que qualquer decisão do STF seja acompanhada de critérios transparentes: “O julgamento em novembro é uma oportunidade de mostrar que a regulação pode ser eficiente sem ser opressiva. As plataformas devem ser responsabilizadas, mas dentro de um processo claro, pautado pelos princípios da Lei Geral de Proteção de Dados (LGPD) e da Lei de Acesso à Informação (LAI)”.
Por fim, ele destaca que uma regulação eficaz poderá contribuir para um ambiente online mais saudável e seguro. “A Internet pode e deve ser um espaço de pluralidade e debate, mas isso só será possível com regras bem estabelecidas. As plataformas não podem ser neutras diante de abusos; elas precisam se posicionar e colaborar ativamente com a Justiça para evitar danos maiores”, conclui.