Na construção do marco regulatório, mais do que seguir tendências globais, cabe reconhecer que nenhuma tecnologia é neutra, e que devemos, acima de tudo, saber como extrair seu potencial com segurança e eficiência, criando as bases para um futuro mais justo e inovador
Alexandre Pierro (*)
Você confia, totalmente, nas informações que qualquer Inteligência Artificial (IA) te fornecer? Muitos acreditam 100%, o que não deveria acontecer. Por mais que esses sistemas, capazes de processar e gerar insights a partir de enormes bases de dados, já façam parte das nossas rotinas, notícias falsas, vieses algorítmicos e violações de privacidade também são constantemente presentes, justamente, em decorrência do uso irresponsável e não ético dessa tecnologia no dia a dia. Não basta desenvolver uma IA robusta, é preciso responsabilizá-la.
Há uma urgência em nos questionarmos, criticamente, no quanto podemos crer, como verdade absoluta, em tudo que é passado por essas soluções, o que vem aquecendo a aprovação do Projeto de Lei 2338/2023 que visa, justamente, regulamentar o desenvolvimento e uso da IA no Brasil.
Desde o final de 2025, inclusive, o Ministério da Ciência, Tecnologia e Inovação (MCTI) e o Senado Federal vêm fortalecendo sua cooperação nesse sentido, compreendendo a necessidade de uma regulação ética, segura e alinhada ao desenvolvimento tecnológico nacional para a Inteligência Artificial.
O texto prevê mais de R$ 23 bilhões em investimentos em pesquisa, soberania digital e inclusão, consolidando a IA como eixo do desenvolvimento tecnológico e econômico do país – além de propor uma abordagem baseada em riscos, classificando suas aplicações conforme seu potencial de dano, similarmente ao que já é visto em muitos países europeus. Por lá, todas as soluções desenvolvidas a partir da Inteligência Artificial deverão estar em conformidade com o regulamento, sob risco da aplicação de sanções.
Muitos ainda acreditam que a IA é uma espécie de inteligência autônoma, capaz de pensar e decidir por conta própria. Na prática, contudo, trata-se de sistemas que operam sobre dados históricos, identificando padrões e projetando comportamentos. Logo, se esses dados estiverem enviesados, incompletos ou incorretos, o resultado também será. Regulamentar a IA não significa engessá-la, mas estabelecer princípios básicos de funcionamento com ética e responsabilidade.
Distorção de conteúdos
Sem regulamentação, não há critérios mínimos de validação, transparência ou credibilidade das informações que são transmitidas por essas ferramentas. Um estudo internacional recente liderado pela BBC e coordenado pela União Europeia de Radiodifusão (EBU), como prova disso, revelou que os principais assistentes de Inteligência Artificial distorcem conteúdos jornalísticos em cerca de 45% das respostas. O número fala por si só, deixando claro que o problema é sistêmico, não pontual.
Temos a oportunidade de nos inspirar nessas práticas e adequá-las à realidade nacional, ainda mais considerando outras leis brasileiras também importantes na garantia da proteção de ativos sensíveis, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados, que precisarão ser harmonizadas com a possível aprovação final deste projeto.
A construção de um marco regulatório inteligente pode nos posicionar como referência em inovação ética, impulsionando o poder econômico do nosso mercado e destravando o potencial que temos em aprimorar, com responsabilidade, soluções cada vez mais avançadas e seguras de IA.
Mais do que seguir tendências globais, trata-se de reconhecer que nenhuma tecnologia é neutra, e que devemos, acima de tudo, saber como extrair seu potencial com segurança e eficiência, criando as bases para um futuro mais justo, seguro e inovador.
(*) Mestre em Gestão e Engenharia da Inovação, engenheiro mecânico, bacharel em Física e especialista de Gestão da PALAS, consultoria pioneira na implementação da ISO de Inovação na América Latina. (Crédito da foto: Tiago Lasak)
