É fundamental que certos passos sejam dados antes que qualquer sistema de IA seja utilizado nas decisões judiciais, como elaborar uma legislação que regulamente sua criação, prevendo mecanismos de controle e testes rigorosos para eliminar eventuais vieses discriminatórios
Jennifer Manfrin (*)
No dia 14 de maio, uma manifestação do ministro Luís Roberto Barroso sobre a rápida evolução tecnológica que vem ocorrendo nos tribunais ganhou destaque. Nas palavras do ministro: “Em breve, tenho certeza de que teremos a Inteligência Artificial escrevendo a primeira sentença”.
Essa declaração surpreendeu muitos, especialmente aqueles menos familiarizados com o tema. Contudo, a verdade é que há anos os tribunais vêm utilizando sistemas de Inteligência Artificial (IA) para auxiliar nas atividades diárias, com resultados impressionantes. Por exemplo, o sistema Victor, em operação desde 2019, consegue realizar em cinco segundos uma tarefa que um servidor humano demoraria 44 minutos para completar.
A otimização de tarefas é notável, e os sistemas de IA têm se mostrado altamente eficazes para executar tarefas repetitivas e mecânicas, como a triagem processual. Mas será que a Inteligência Artificial é a solução para a morosidade processual no Brasil, a partir da elaboração de sentenças judiciais, como mencionado pelo Ministro?
Não há dúvidas de que já existe tecnologia suficiente para que sistemas de IA elaborem sentenças, mas, para que eles sejam utilizados, muitos obstáculos significativos precisam ser ultrapassados, e acredito que o mais problemático deles diz respeito aos vieses discriminatórios.
Basicamente, podemos entender que o que torna a IA tão impressionante é a sua capacidade de aprender a “pensar” sozinha, a partir das informações às quais é exposta. Essa é a sua maior qualidade e o seu maior problema.
Resultado desastroso
Em 2016, a Microsoft teve uma ideia que, a princípio, foi genial: inserir no Twitter um sistema de IA para que ele aprendesse com os usuários, e com isso entendesse melhor o público entre 18 e 24 anos. Contudo, o resultado foi desastroso e, em menos de 24h, ele precisou ser retirado do ar por ter se tornado racista, sexista, xenofóbico e conspiracionista.
Infelizmente, o problema dos vieses discriminatórios com o uso da IA não se restringe às redes sociais. O sistema Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), usado pelos tribunais dos Estados Unidos da América, é um exemplo disso. Sua principal função era ajudar juízes e agentes de condicional a avaliar a probabilidade de reincidência de réus criminais. No entanto, após a análise de mais de 10 mil casos, foi constatado que o sistema, em condições equivalentes, considerava que réus negros tinham probabilidade 45% maior de serem classificados como de alto risco de reincidência em comparação com réus brancos. Em se tratando de crimes violentos, essa probabilidade subia para 77%.
Assim, embora a ideia de utilizar IA para proferir sentenças seja animadora, é fundamental que certos passos sejam dados antes que qualquer sistema seja utilizado, como elaborar uma legislação que regulamente sua criação, prevendo mecanismos de controle e testes rigorosos para eliminar eventuais vieses discriminatórios. Afinal, como a história nos mostra, a Inteligência Artificial também comete erros e, em casos judiciais, isso pode representar grandes prejuízos na vida de pessoas.
(*) Advogada, especialista em Direito Aplicado e professora nos cursos de Pós-Graduação em Direito do Centro Universitário Internacional Uninter. (Crédito da foto: Rodrigo Leal)