Ética é a chave para o desenvolvimento da Inteligência Artificial confiável

É preciso ter um olhar ético-filosófico para as condições em que estão sendo desenvolvidas soluções tecnológicas utilizando a IA, a fim de que elas funcionem de modo robusto e seguro

Paula Marques Rodrigues (*)

Sabe-se que a Inteligência Artificial (IA) é a tecnologia que mais movimentará o mercado nos próximos anos. Desde a composição e o início de sua definição pelo professor, matemático e cientista John McCarthy em 1956, até o alto e complexo desenvolvimento da tecnologia aplicado a jogos como o AlphaStar, criado e desenvolvido pela empresa DeepMind Technologies, a Inteligência Artificial atingirá os mais variados setores e certamente causará impacto nas relações sociais, econômicas e políticas da sociedade atual.

De acordo com a empresa de pesquisas Tractica, haverá um crescimento de 154% no tocante ao desenvolvimento de softwares de IA em termos globais, em comparação ao ano de 2018, podendo alcançar até US$ 147 bilhões. A indústria ligada ao desenvolvimento de IA inclui: machine learning, deep learning, redes neurais, visão computacional, entre outros.[1]

Os números parecem assustadores, mas traduzem a realidade: a Inteligência Artificial é a tecnologia capaz de transformar processos, aumentar o nível de interação com os seres humanos e, com isso, ser protagonista de um novo ciclo tecnológico, tal como a criação do computador e o desenvolvimento dos smartphones.

Se as aplicações da Inteligência Artificial concretizam a ideia de que robôs serão programados para executar tarefas que antes eram realizadas somente por seres humanos, respondendo perguntas e solucionando problemas, cabe a nós entender o que, afinal, significa conviver com as referidas aplicações de IA no nosso cotidiano.

Dentre as inúmeras aplicações da IA, a possibilidade de que máquinas possam tomar decisões com base em leitura e interpretação de grande massa de dados (Big Data) é, sem dúvida, ponto que merece amplo debate.

O processo de cognição de determinado problema apresentado para, a seguir, concluir-se por uma solução que implique a tomada de decisão era tido como uma atividade exclusivamente humana. Contudo, a alta capacidade de leitura matemática, estatística e comportamental da IA fez com que esse cenário sofresse uma drástica alteração: viver e conviver em uma realidade cujas decisões são automatizadas.

A partir daí, surgem muitos questionamentos. Como vamos garantir que o sistema de IA tenha se pautado no ordenamento jurídico vigente? Quais foram os critérios utilizados para que o sistema de IA tenha produzido decisão que alcançou aquele resultado? Como evitar viéses preconceituosos? De que maneira garantiremos o desenvolvimento da IA levando-se em consideração a diversidade político-econômica e a dificuldade na criação de regulamentos com alcance mundial? Como confiar no desenvolvimento da IA quando esta propõe a tomada de decisões que influenciariam a integridade física e moral da humanidade?

Embora, atualmente, não existam respostas às perguntas sobre o tema, tornar confiável um sistema de algoritmos é o primeiro passo para compreender as consequências práticas da utilização da IA. E para ser confiável, deve a IA ser ética.

E quando se fala em aplicação ética no desenvolvimento de tecnologia, é necessário entender que os produtos, geralmente, são projetados com base em experiências previsíveis, os quais alcançam resultados previsíveis. Porém, o processo de criação da tecnologia não é neutro; e aqui é que residirá a ética.

Se a ética embutida em uma determinada tecnologia é reflexo da ética aplicada no processo de sua criação (e, portanto, também de seus criadores), imprescindível se determinar efetivas diretrizes sobre o tema, para a concretização da pretendida confiabilidade dessa tecnologia[2].

Pensando no fomento ao desenvolvimento industrial, econômico e social por meio da tecnologia, a União Europeia, no final de 2018, editou documento específico sobre a temática das diretrizes éticas para o incentivo na criação, desenvolvimento e aplicação da IA no cotidiano.

O documento, denominado “Orientações Éticas para uma IA de Confiança”, contou com a efusiva participação do grupo de peritos de alto nível sobre IA da União Europeia.

Em suma, para o desenvolvimento e promoção de uma IA de confiança, três componentes devem ser observados ao longo de todo o ciclo de vida do sistema:

  1. Legal, em que a IA cumprirá toda a legislação e regulamentação aplicáveis;
  2. Ética, garantindo a observância de princípios e valores éticos; e
  3. Sólida, tanto do ponto de vista técnico como do ponto de vista social, eis que é possível que os sistemas de IA possam causar danos não intencionais.

Se o norte principal é que os sistemas de IA devem estar centrados no ser humano, além de se firmar o reiterado compromisso de serem utilizados a serviço do bem comum e da humanidade para a melhoria do bem-estar e liberdade dos seres humanos, o seleto grupo de especialistas estabeleceu quatro princípios éticos aplicáveis, a saber:

  1. Respeito à autonomia humana: é a garantia do respeito à liberdade e autonomia dos seres humanos. Quando interagirem com sistemas de IA, os humanos devem manter sua autodeterminação plena e efetiva, usando os sistemas de IA para capacitar e aumentar as suas competências cognitivas, sociais e culturais;
  2. Prevenção de danos: premissa de que os sistemas de IA não devem causar danos ou agravar aqueles causados por humanos. Este princípio visa proteger a dignidade humana, sua integridade física e mental, independentemente de sua vulnerabilidade. Também tutela o equilíbrio de poder ou informação, que pode impactar as relações empregatícias, consumeristas ou até mesmo governamentais. Também se aplica para garantir um ambiente natural seguro a todos os seres vivos;
  3. Equidade: deve haver equidade no desenvolvimento, na implantação e na utilização dos sistemas de IA. Isso significa garantir a distribuição equitativa e justa de benefícios e custos, sem enviesamentos ou discriminação contra pessoas e/ou grupos. É garantir a igualdade de oportunidades no acesso a bens e serviços, educação e tecnologia;
  4. Explicação: os processos relacionados aos sistemas de IA devem ser transparentes – tanto a finalidade quanto a capacidade da tecnologia precisam ser previamente anunciadas ou, ao menos, explicáveis quando questionadas. Isso porque os sistemas de IA são capazes de tomar decisões e é necessário garantir o correspondente direito à explicação.

A União Europeia, ao consolidar os princípios, requisitos e componentes para o justo e correto desenvolvimento de sistemas de IA, fomentou a discussão ético-filosófica que permeia o tema nos demais países e organizações.

Ato contínuo, o Conselho da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) emitiu documento de recomendação para o uso da Inteligência Artificial, oficialmente disponibilizado em maio de 2019, do qual o Brasil é signatário.

No documento transnacional, que contou também com a participação de países da América Latina como Argentina, Colômbia, Peru e Brasil, foram identificados cinco princípios aplicáveis ao uso da Inteligência Artificial confiável, a saber:

  1. A IA deve beneficiar as pessoas e o planeta, impulsionando o crescimento inclusivo, o desenvolvimento sustentável e o bem-estar;
  2. Os sistemas de IA devem ser concebidos de maneira a respeitar o Estado de Direito, os Direitos Humanos, os valores democráticos e a diversidade, incluindo exceções adequadas – como, por exemplo, permitir a intervenção humana quando necessário – para garantir uma sociedade justa;
  3. Devem existir transparência e divulgação responsável em torno dos sistemas de IA, a fim de que as pessoas entendam os resultados baseados em IA e consigam contestá-los;
  4. Os sistemas de IA devem funcionar de maneira robusta e segura ao longo de seus ciclos de vida, bem como os seus riscos em potencial devem ser continuamente avaliados e gerenciados; e
  5. Organizações e indivíduos que desenvolvem, implantam ou operam sistemas de IA devem ser responsabilizados por seu funcionamento adequado, de acordo com os princípios ora mencionados.

Logo, refletir e compreender os conceitos utilizados no ramo da IA, além de garantir a aplicabilidade das diretrizes éticas e preceitos legais que a sociedade tenta estabelecer, em âmbito global e de maneira uniforme, é imprescindível para dar o próximo passo. Pela ampla escala de aplicação de sistemas de IA, cujos resultados são palpáveis e começam a influenciar a vida do indivíduo nos dias atuais, não há como ignorar as discussões sobre o tema.

Nota-se, portanto, a preocupação mundial com a evidente interferência da tecnologia em todo e qualquer tipo de relação, o que demanda um olhar ético-filosófico para a maneira e em quais condições estão sendo desenvolvidas soluções tecnológicas utilizando a IA. Consolidadas essas premissas, dá-se o primeiro passo para uma convergência de diretrizes que certamente impactará toda a sociedade.

[1]Disponível em: https://www.statista.com/statistics/607960/worldwide-artificial-intelligence-market-growth/ Acesso em 22 dez 2019.

[2] Disponível em: https://towardsdatascience.com/ethics-of-ai-a-comprehensive-primer-1bfd039124b0 Acesso em 22 dez 2019.

(*) Advogada Sênior do escritório Opice Blum, Bruno, Abrusio e Vainzof Advogados Associados. Pós-graduada em Direito Civil e Processo Civil pela Escola Paulista de Direito – São Paulo (EPD) e em Direito e Tecnologia da Informação pela Universidade de São Paulo (USP).

3 comments Add yours
  1. Excelente artigo. Realmente, nossos maiores problemas atuais não são de natureza técnica, mas ética. Uma questão se impõe: diante da realidade que vivemos, hoje, fazer valer os princípios recomendados, não será uma tarefa fácil. Temos pela frente, um grande e intenso trabalho.

Deixe uma resposta

O seu endereço de email não será publicado.