

IA e um futuro mais justo

Mesmo com mais de 25 anos de experiência no mundo da tecnologia, foi apenas recentemente que o nome de Elizabeth Adams se tornou sinônimo de uma causa urgente: a ética na IA. Defensora da igualdade de gênero e da inclusão, hoje ela é consultora e porta-voz de iniciativas que buscam a redução ou a eliminação de vieses em todo o ciclo de desenvolvimento de produtos de IA. Seu programa Liderança em IA Responsável foi desenvolvido para auxiliar líderes empresariais a concretizar esses conceitos.

O viés na IA existe, e acontece pela falta de diversidade nos dados de treinamento quanto a gênero, raça e etnia.
O trabalho de Adams chega em um momento crucial. A Gartner prevê que 85% dos projetos de IA criados de 2018 para cá entregarão resultados incorretos por conta de dados, algoritmos ou equipes com algum grau de viés. Elizabeth Adams trabalha em Mineápolis, EUA e conversou comigo recentemente sobre esses problemas, dando orientações às empresas sobre as complicações no combate aos vieses algorítmicos.

O viés na IA costuma aparecer na mídia em reportagens sobre assuntos interessantes e exóticos, como o caso de um chatbot descontrolado que passou a ofender verbalmente os usuários. Mas qual é a real gravidade do problema?
O viés na IA existe, e acontece pela falta de diversidade nos dados de treinamento quanto a gênero, raça e etnia. Estamos falando de um problema gravíssimo, que afeta contratações, empréstimos imobiliários, moradia e seguros. Existem até mesmo algoritmos de IA que priorizaram executivos no lugar de trabalhadores da linha de frente nas filas para a vacinação contra a Covid-19, ou algoritmos que escolhem quais localidades (em geral, as mais abastadas) recebem mais doses. O problema é onipresente. Para resolvê-lo, precisamos dar tudo de nós para analisar a questão sob a perspectiva de diversas disciplinas e sistemas.

Parece que esta é apenas a ponta do iceberg. Como você se envolveu no assunto?
Passei três anos imersa em comunidades da cidade de Mineápolis, no papel de cidadã politizada e também como profissional nomeada pelo Comitê Consultivo Comunitário para Igualdade Racial. Depois disso, ajudei a fundar uma coalizão para tratar do monitoramento público de tecnologias de vigilância. Nosso grupo reivindicou o banimento de tecnologias de reconhecimento facial, pedido esse que acabou sendo acatado pela câmara municipal. Foi um trabalho altruísta. Os voluntários abriram mão do tempo que tinham para ficar com a família para defender um direito humano básico: tecnologia segura. As pessoas que costumam ser prejudicadas pelos vieses são as que fazem todo o trabalho, e sem pagamento. Temos aqui uma oportunidade para nos antever a um problema ainda maior no futuro, nas lideranças governamentais e corporativas, e é isso o que deveríamos estar fazendo.


E o que podemos fazer para solucionar isso?
As Nações Unidas definiram diretrizes éticas para IA. O Instituto Nacional de Normas e Tecnologia dos EUA (NIST) dispõe de um teste de reconhecimento facial que toda empresa que atua nesse ramo precisa realizar. O Instituto de Ética de Montreal e outras organizações sem fins lucrativos têm manuais de ética que podem ajudar as organizações a definir, mensurar e mitigar vieses raciais presentes na IA. Empresas como a Microsoft estão montando equipes de IA responsável. Portanto, todos esses grupos estão tentando chegar a uma solução completa de IA e entender a melhor forma de atenuar e/ou eliminar os danos dos algoritmos.

Quando ofereço consultoria sobre o assunto e sou apresentada ao contexto específico da empresa, sempre pergunto se é de fato necessário utilizar IA para aquela situação.

Manuais e diretrizes serão suficientes?
Eles são um começo. Quando ofereço consultoria sobre o assunto e sou apresentada ao contexto específico da empresa, sempre pergunto se é de fato necessário utilizar IA para aquela situação. O fato de a IA existir não significa que precise ser adotada. No meu trabalho com as empresas, começamos pelo desenvolvimento de princípios éticos e só criamos um manual quando a estrutura para IA responsável já está consolidada.
Para isso, é preciso haver liderança compartilhada. Técnicos e leigos precisam participar do ciclo de desenvolvimento de IA. Logo após compreender a dificuldade da empresa, começo a fazer ajustes rápidos e delineamos os próximos passos. É preciso pensar no longo prazo; não é um tiro curto. Ao final de tudo, o objetivo é criar um produto sustentável e benéfico para a comunidade.

Você escreveu um livro infantil sobre IA. O que a motivou?
Eu amo contos. Escrever me ajuda a resolver problemas complexos de tecnologia. Quando a Covid chegou, ficamos todos em casa e eu resolvi que não queria postergar meu sonho de escrever um livro. A princípio, publiquei “Little A.I. and Peety” em e-book para os pais explicarem as novas tecnologias para as crianças. Depois do lançamento, recebi uma ligação de uma creche de Mineápolis. Eles disseram que se eu fizesse uma versão em capa dura, eles comprariam. Hoje, quase 3.000 crianças têm acesso aos livros, que também são vendidos em 40 lojas do mundo todo. O objetivo era ensinar aos cuidadores e aos pequenos o que é uma tecnologia segura. Tem até uma musiquinha no YouTube, para cantar junto. Foi uma experiência e tanto. Como tecnóloga, nunca imaginei que as pessoas iriam gostar de um livro sobre isso.