Parlamento europeu aprova lei que regulamenta a Inteligência Artificial

Danielle Campello, especialista em Direito Digital, Proteção de Dados e Novas Tecnologias do Di Blasi, Parente & Associados

Regulação tem como eixo central a defesa dos direitos fundamentais e dos princípios éticos, estabelecendo regras claras e sólidas que mitigam os riscos inerentes ao uso da IA, privilegiando a transparência e a adequação das informações

A versão final da regulamentação para os sistemas de Inteligência Artificial (IA) da União Europeia (EU AI Act) foi aprovada no dia 13 de março de 2024 pelo Parlamento Europeu (com 523 votos a favor, 46 contra e 49 abstenções dos deputados). O EU AI Act foi aprovado após longo processo legislativo que começou em 2019. O regulamento traz um conjunto de definições e regras que visam garantir a segurança jurídica e o cumprimento dos direitos fundamentais, ao mesmo tempo em que impulsiona a inovação e a transformação digital.

É nesse sentido que dispõe o Artigo 1º da regulação: “A finalidade do presente regulamento é melhorar o funcionamento do mercado interno e promover a adoção de uma Inteligência Artificial centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança e dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais, incluindo a democracia, o Estado de Direito e a proteção do ambiente, contra os efeitos nocivos dos sistemas de Inteligência Artificial (“sistemas de IA”) na União, bem como apoiar a inovação”.

“O EU AI Act será a primeira regulamentação para as ferramentas de Inteligência Artificial no bloco da União Europeia, e certamente promoverá forte influência em nível global. Contudo, ainda depende de um período de vacatio legis, vinculado a certas obrigações específicas, para entrar efetivamente em vigor, conforme disposto no documento”, analisa a advogada Danielle Campello, especialista em Direito Digital, Proteção de Dados e Novas Tecnologias do Di Blasi, Parente & Associados.

A regulamentação traz uma ampla abordagem baseada na avaliação dos riscos inerentes ao sistema de IA apresentado e seus possíveis impactos, estabelecendo uma aplicabilidade extensiva, direcionando-se não apenas a entidades da UE mas também a fornecedores e usuários internacionais de sistemas de IA, sempre que os seus produtos ou serviços sejam utilizados na União Europeia.

Não foram inseridos na regulação os programas de Inteligência Artificial concebidos para fins militares, de defesa e soberania nacional.

Proibições para preservar a privacidade

“É importante ressaltar que esse regulamento proibiu determinados sistemas de IA que ameaçam direitos dos cidadãos, incluindo os sistemas de categorização biométrica que classifiquem individualmente as pessoas  com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual, bem como sistemas que coletam de forma não direcionada imagens faciais da Internet ou imagens de CCTV para criar bases de dados de reconhecimento facial e identificar pessoas em tempo real”, esclarece a advogada.

Ficaram também proibidas as aplicações de IA que utilizam o reconhecimento de emoções no local de trabalho e nas escolas, pontuação social, o policiamento preditivo (que se baseia apenas no perfil de uma pessoa ou na avaliação das suas características a fim de avaliar ou prever a probabilidade de uma pessoa singular cometer uma infração penal), e o sistema de IA que manipula e engana o comportamento humano ou explora as vulnerabilidades das pessoas.

Mas será possível usar o reconhecimento facial para lidar com risco iminente à vida ou à segurança física de pessoas, situações de terrorismo, ou para ajudar na busca direcionada de uma pessoa desaparecida, na investigação de rapto, tráfico e exploração sexual, desde que com autorização judicial e estando associada a uma infração penal.

“Dentro do contexto de abordagem de riscos, estão previstas obrigações e uma governança ainda mais rigorosa para os sistemas de IA definidos como de alto risco. Entre os exemplos de utilizações de IA de alto risco contam-se as infraestruturas críticas, a educação e a formação profissional, o emprego, os serviços públicos e privados essenciais (por exemplo, cuidados de saúde, serviços bancários e crédito), a migração e a gestão das fronteiras, a justiça e os processos democráticos (por exemplo, influenciar as eleições)”, comenta Danielle.

Impactos no mundo 

O regulamento para os sistemas de IA europeu é o primeiro texto vinculativo aprovado no mundo. A regulação tem como eixo central a defesa dos direitos fundamentais e dos princípios éticos, centrado no ser humano.

Para esse fim, estabelece regras claras e sólidas que mitigam os riscos inerentes dos sistemas, privilegiando a transparência e informações adequadas, ao mesmo tempo em que apoia e promove soluções inovadoras e explora o potencial da transformação digital, criando infinitas oportunidades, dentro de um contexto de governança e gestão de riscos, tendo em vista  a devida  adequação e conformidade dos sistemas de Inteligência Artificial.

Deixe uma resposta

O seu endereço de email não será publicado.