O desafio da governança ética no uso da inteligência artificial

Anne-Laure Thieullent, líder da oferta do Grupo de Inteligência Artificial e Analytics da Capgemini

Crescente número de empresas reconhece a necessidade de sistemas baseados em IA éticos e confiáveis, mas o progresso ainda é irregular. O relatório da Capgemini mostra que 70% dos clientes esperam que as organizações forneçam interações de IA que sejam transparentes e justas

A Inteligência Artificial (IA) tem o poder de transformar positivamente a sociedade e o meio ambiente, e para aproveitar esse poder em todo o seu potencial, as organizações precisam se concentrar em enfrentar os desafios éticos. De acordo com o novo relatório do Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” (em tradução livre, “IA e o enigma ético: como as organizações podem construir sistemas de IA eticamente robustos e ganhar confiança”), a parcela de clientes que acreditam que as organizações são  totalmente transparentes sobre como é feito o uso de seus dados pessoais caiu de 76% em 2019 para 62% hoje.

O relatório também descobriu que apenas 53% das organizações têm um líder responsável pela ética dos sistemas de IA e que a governança e a responsabilidade pela IA e a implementação de ferramentas e estruturas pragmáticas para os sistemas a serem desenvolvidos e usados ​​têm um alto custo para as organizações.

Embora as organizações estejam mais conscientes do ponto de vista ético, o progresso na implementação de IA ética tem sido inconsistente. Por exemplo, quase a mesma proporção de executivos em 2019 disse que tomou medidas para construir “equidade” (65% em 2020 vs. 66% em 2019) e “auditabilidade” (45% em 2020 vs. 46% em 2019) dimensões de seus sistemas de IA. Além disso, a transparência caiu de 73% para 59%, apesar do fato de 58% das empresas afirmarem que estão conscientizando os funcionários sobre os problemas que podem resultar do uso de IA.

A pesquisa também revela que 70% dos clientes desejam uma explicação clara dos resultados e esperam que as organizações forneçam interações de IA transparentes e justas.

Experiências negativas de clientes de IA têm um alto custo 

Como as organizações públicas e privadas continuam a implementar cada vez mais uma variedade de tecnologias de IA, é fundamental manter a confiança do cliente promovendo relacionamentos positivos entre a IA e os consumidores. No entanto, os relatórios mostram que os conjuntos de dados coletados para a saúde e o setor público estão sujeitos a preconceitos sociais e culturais [1].

Isso não se limita apenas ao setor público. A pesquisa da Capgemini descobriu que 65% dos executivos disseram estar cientes da questão do viés discriminatório com os sistemas de IA. Além disso, cerca de 60% das organizações atraíram o escrutínio jurídico e 22% enfrentaram uma reação negativa do cliente nos últimos dois a três anos, devido a decisões tomadas por sistemas de IA.

Na verdade, 45% dos clientes notaram que compartilharão suas experiências negativas com a família e amigos e podem exortar que eles não se envolvam com uma organização, 39% exporão suas preocupações à organização e exigirão uma explicação e 39% deixarão a IA como canal para uma interação humana de custo mais alto. Mais de um quarto dos consumidores (27%) afirmam que deixariam de lidar com a organização por completo.

Apenas 53% das organizações têm um líder que é responsável pela ética dos sistemas de IA em sua organização, como um diretor de ética. É crucial estabelecer a liderança no topo para garantir que essas questões recebam a devida prioridade da alta administração e para criar sistemas de IA eticamente robustos.

Além disso, os líderes nas funções de negócios e tecnologia devem ser totalmente responsáveis ​​pelos resultados éticos das aplicações de IA. A pesquisa mostra que apenas metade disse ter uma linha direta confidencial ou ombudsman para permitir que clientes e funcionários levantassem questões éticas com sistemas de IA.

A necessidade de as organizações implementarem uma carta ética também é impulsionada por estruturas regulatórias cada vez maiores. Por exemplo, a Comissão Europeia emitiu orientações sobre os princípios éticos fundamentais que devem ser usados ​​para conceber aplicações de IA [2]. Enquanto isso, as diretrizes emitidas pela Comissão Federal de Comércio dos Estados Unidos (FTC) no início de 2020 exigem IA transparente [3], afirmando que quando um sistema habilitado para IA toma uma decisão adversa (como recusar crédito para um cliente), a organização deve mostrar ao consumidor afetado os principais pontos de dados usados ​​para chegar à decisão e dar-lhe o direito de alterar qualquer informação incorreta.

No entanto, embora 73% das organizações globalmente tenham informado sobre as maneiras pelas quais as decisões de IA podem afetá-los em 2019, hoje, esse número caiu para 59%.

De acordo com o relatório, isso é um indicativo das circunstâncias atuais trazidas pelo COVID-19, bem como das necessidades sociais e ambientais, da crescente complexidade dos modelos de IA e de uma mudança no comportamento do consumidor, que afetaram as funcionalidades dos modelos de IA existentes. Novos fatores, incluindo preferência por segurança, compra em massa e falta de dados de treinamento para situações semelhantes do passado, significa que as organizações estão redesenhando seus sistemas para se adequarem a um novo padrão; no entanto, isso levou a menos transparência.

O relatório destaca sete ações-chave para as organizações construírem um sistema de IA eticamente robusto, com cada uma sendo sustentada por uma base sólida de liderança, governança e práticas internas [4]:

– Descrever claramente a finalidade pretendida dos sistemas de IA e avaliar seu impacto potencial geral;

– Instalar IA de maneira proativa para o benefício da sociedade e do meio ambiente;

– Incorporar princípios de diversidade e inclusão de forma proativa ao longo do ciclo de vida dos sistemas de IA;

– Aumentar a transparência com a ajuda de ferramentas de tecnologia;

– Humanizar a experiência de IA e garantir a supervisão humana dos sistemas de IA;

– Garantir a robustez tecnológica dos sistemas de IA;

– Proteger a privacidade individual das pessoas, capacitando-as e colocando-as no comando das interações de IA.

“Dado seu potencial, o uso ético da IA ​​deve, é claro, garantir aos humanos que eles não tenham danos e a total responsabilidade humana e responsabilidade quando as coisas derem errado. Mas, além disso, há uma oportunidade muito real para uma busca proativa pelo bem-estar ambiental e social”, comenta Anne-Laure Thieullent, líder da oferta do Grupo de Inteligência Artificial e Analytics da Capgemini.

“AI é uma tecnologia transformacional com o poder de gerar desenvolvimentos de longo alcance em toda a empresa, bem como na sociedade e no meio ambiente. Em vez de temer os impactos da IA ​​nos humanos e na sociedade, é absolutamente possível direcionar a IA no sentido de lutar ativamente contra o preconceito contra as minorias, corrigindo até mesmo o preconceito humano existente em nossas sociedades hoje. Isso significa que as organizações governamentais e não governamentais que possuem os recursos de IA, riqueza de dados e um propósito de trabalhar para o bem-estar da sociedade e do meio ambiente devem assumir maior responsabilidade em lidar com essas questões para beneficiar as sociedades agora e no futuro, tudo ao mesmo tempo respeitando transparência e sua própria responsabilidade no processo.”.

Para ler a íntegra do relatório e suas recomendações, clique aqui .

[1] SSIR, “The Problem With COVID-19 Artificial Intelligence Solutions and How to Fix Them”, junho de 2020.
[2] Comissão Europeia, “Diretrizes de ética para IA confiável”, abril de 2019.
[3] FTC.Gov, “Using Artificial Intelligence and Algorithms”, abril de 2020.
[4] As sete dimensões-chave da IA ​​ética derivam dos sete princípios da IA ​​ética definidos pela Comissão Europeia.

Deixe uma resposta

O seu endereço de email não será publicado.