Rony Vainzof, sócio do Opice Blum, Bruno e Vainzof Advogados Associados
Advogado avalia que regulamentação é um passo fundamental para garantir a governança na área, mas preconiza um amplo debate prévio com a sociedade antes da votação na Câmara dos Deputados
Um passo fundamental para garantir excelência e confiabilidade. Assim, o advogado Rony Vainzof, sócio do Opice Blum, Bruno e Vainzof Advogados Associados – especializado em Direito Digital e Proteção de Dados – define a regulamentação da Inteligência Artificial, por meio do Projeto de Lei (PL) nº 21/2020, que cria o Marco Legal da Inteligência Artificial e deverá ser votado em regime de urgência pela Câmara dos Deputados. Essa proposta, de autoria do deputado federal Eduardo Bismarck, estabelece princípios, direitos, deveres e instrumentos de governança para o uso da IA pelo Poder Público, pelas entidades privadas e pessoas físicas, considerando como sistema de Inteligência Artificial aquele baseado em “processo computacional que pode, para determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que interfiram em ambientes físicos ou digitais”.
A Estratégia Brasileira de Inteligência Artificial (EBIA) foi criada há três meses e publicada em abril passado pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações. O objetivo é traçar um plano nacional de crescimento e desenvolvimento na área a partir do PL em trâmite na Câmara desde 2020, que determina princípios, direitos, deveres e instrumentos de governança para o desenvolvimento da tecnologia de IA. No entanto, Vainzof faz uma ressalva: “Entendemos ser precipitada a votação do marco legal sobre um tema de tamanha relevância para a economia do Brasil, sem antes haver amplo debate com a sociedade e especialistas para que tenhamos uma norma moderna, que não engesse a inovação e, ao mesmo tempo, traga segurança jurídica para as organizações”.
Ele acredita que essa norma deve adotar uma abordagem baseada no risco, “de forma a distinguir os diferentes tipos de aplicação de IA existentes, evitando limitar de maneira excessiva usos possivelmente benéficos e com potencial de risco baixo ou mínimo”. Definindo a Inteligência Artificial (IA) como “uma tecnologia frenética e em constante evolução”, o sócio do Opice Blum diz que o uso desses sistemas cria níveis inimagináveis de conhecimento e abre margens para novas descobertas que podem trazer consigo a possível resolução de grandes desafios da atualidade. “Como o tratamento de doenças graves e abrandamento de surtos pandêmicos, alterações climáticas, gestão de riscos financeiros, prevenção a acidentes automobilísticos e a ilícitos cibernéticos,” diz o especialista.
Segurança e respeito aos direitos dos indivíduos
Ele alerta, porém, que se essa evolução não estiver revestida de confiança no ambiente digital com segurança e respeito aos direitos dos indivíduos, os objetivos de desenvolvimento potencialmente estarão fadados ao insucesso. “A mesma tecnologia que facilita diversas questões do nosso cotidiano pessoal e profissional também pode ter comportamentos discriminatórios e/ou fortalecer sistemas de vigilância”, pondera. Especialmente nos casos em que o grau de autonomia e criticidade do uso de IA é alto, “há necessidade de diligências sob a perspectiva de boas práticas empresariais, principalmente diante da necessária abordagem mínima regulatória, baseada em risco e em camadas, de acordo com as normas legais e padrões já existentes e com base em práticas responsáveis das organizações”.
Ele menciona a existência de recentes parâmetros nacionais e internacionais, como os existentes na Estratégia Brasileira de Inteligência Artificial (09/04/21), Proposta de Regulamentação para a Inteligência Artificial da União Europeia (21/04/21) e Guidelines da Federal Trade Commission/EUA para o uso de IA (19/04/21). Essas normas confirmam a necessidade de respeito a princípios éticos (valores centrados no ser humano, justiça e equidade; transparência e explicabilidade; e robustez, segurança e proteção) e da realização de avaliações de impacto.
“Ou seja, idealmente é muito importante que as organizações implementem programas de desenvolvimento ou de utilização ética de sistemas de IA, abarcando elementos essenciais de responsabilidade e conformidade com as normas gerais aplicáveis (CF, CDC, Código Civil, LGPD, Marco Civil da Internet, Lei do Cadastro Positivo, apenas para citar alguns exemplos), confirmando a eficácia do referido programa e garantindo sua melhoria contínua”, acredita Rony Vainzof.