

Un futuro justo para la AI

Si bien hace más de 25 años que Elizabeth Adams está en el sector tecnológico, solo en los últimos años su nombre se convirtió en sinónimo de una causa urgente: el aspecto ético de la AI. Adams, una defensora de la igualdad de género y la inclusión, trabaja ahora como portavoz y consultora para promover iniciativas orientadas a reducir o eliminar el sesgo durante el ciclo de vida de desarrollo de producto en el ámbito de la AI. Su programa Leadership of Responsible AI (Liderazgo para una AI responsable) está diseñado para ayudar a los líderes de negocios a transformar estos conceptos en acciones.

El sesgo en la AI es real. Esto se debe a una falta de diversidad en los datos de aprendizaje sobre género, raza o etnia.
Su trabajo llega en un momento clave. Gartner predice que el 85 % de los proyectos de AI que se crearon de 2018 a este año generarán resultados erróneos debido a sesgo en los datos, los algoritmos o los equipos que los gestionan. Adams, quien reside en Minneapolis, se reunió conmigo hace poco para hablarme sobre estas cuestiones y ofrecer orientación a las empresas respecto de las complejidades que implica eliminar el sesgo en los algoritmos.

El sesgo en la AI suele presentarse como una historia llamativa en los medios de comunicación; por ejemplo, cuando un chatbot basado en AI se descarría e insulta a los usuarios. ¿Qué tan grave es el problema en realidad?
El sesgo en la AI es real. Esto se debe a una falta de diversidad en los datos de aprendizaje sobre género, raza o etnia. Es un problema enorme que se da en el ámbito de la contratación, los préstamos hipotecarios, la vivienda y los seguros. Incluso podemos hablar de algoritmos de AI que priorizaron a ejecutivos de empresas antes que a trabajadores de primera línea en hospitales en la vacunación contra el COVID-19, o algoritmos que deciden qué comunidades (por lo general, privilegiadas) reciben más vacunas que otras. Sucede en todas partes. Para solucionar este problema, es necesario analizarlo de manera conjunta, interdisciplinar y multisistémica.

Hay mucho más que lo que se ve a simple vista. ¿Cómo te involucraste en el tema?
Pasé tres años en comunidades de la ciudad de Mineápolis, en calidad de ciudadana involucrada y como miembro designado del Comité Asesor para la Igualdad Racial en la Comunidad de la ciudad. Luego colaboré con la creación de una coalición destinada a abordar la supervisión pública de la tecnología de vigilancia. Nuestra coalición instó a prohibir la tecnología de reconocimiento facial en la ciudad, lo que finalmente hizo el ayuntamiento. Se trató de un movimiento social. Para los voluntarios, implicó pasar menos tiempo con sus familias para poder abogar por algo que debería ser un derecho humano básico: una tecnología segura. Las personas que históricamente se ven perjudicadas por este sesgo son las que realizan todo el trabajo de manera gratuita. Tenemos la oportunidad de centrarnos en este problema desde las esferas más altas, en el liderazgo gubernamental y empresarial, y eso es lo que deberíamos estar haciendo.


Entonces... ¿qué podemos hacer para solucionarlo?
La Organización de las Naciones Unidas estableció pautas en torno al aspecto ético de la AI. El Instituto Nacional de Normas y Tecnología (NIST) cuenta con una prueba de reconocimiento facial para proveedores de la que todas las empresas de tecnología de reconocimiento facial deberían participar. Algunas organizaciones sin ánimo de lucro, como Montreal AI Ethics Institute, cuentan con manuales de ética para ayudar a otras organizaciones a definir, medir y mitigar el sesgo racial de la AI. Empresas como Microsoft están trabajando para crear un equipo de AI responsable. Todos estos grupos buscan descifrar el ciclo de vida de la AI y determinar cómo mitigar o eliminar los efectos perjudiciales en los algoritmos de la mejor manera posible.

Cuando asesoro a las empresas sobre el sesgo en la AI, una de las preguntas que hago, después de determinar el problema que están intentando resolver, es si la AI es necesaria para resolver ese problema.

¿Los manuales y las pautas serán suficientes?
Son un comienzo. Cuando asesoro a las empresas sobre el sesgo en la AI, una de las preguntas que hago, después de determinar el problema que están intentando resolver, es si la AI es necesaria para resolver ese problema. El hecho de que la AI exista no significa que deba implementarla. Trabajo con empresas que desarrollan primero los principios éticos de esta tecnología y luego utilizan un manual, una vez que desarrollaron un marco de trabajo responsable para la AI.
Eso requiere de un liderazgo compartido. Los líderes de los aspectos tanto técnicos como no técnicos deben participar del ciclo de vida de desarrollo de la AI. Una vez que entiendo el problema empresarial, comienzo a buscar resultados rápidos. Luego comenzamos a trabajar en los pasos siguientes. Este proceso es a largo plazo, no inmediato. En última instancia, todos estos cambios deben producir un resultado sostenible y beneficioso para la comunidad.

Escribiste un libro para niños acerca de la AI. ¿Qué te motivó a hacerlo?
Me encantan las historias cortas. Escribirlas me ayuda a resolver problemas tecnológicos complejos. Cuando llegó el COVID, tuvimos que encerrarnos en casa, y decidí que no quería postergar mi sueño de escribir un libro. “Little A.I. and Peety” comenzó como un libro electrónico pensado para que los padres hablaran con sus hijos sobre tecnologías emergentes. Después de publicarlo, recibí una llamada de una guardería infantil de Mineápolis. Me dijeron que, si publicaba la obra en tapa dura, lo comprarían. Actualmente, casi 3000 estudiantes tienen acceso al libro localmente. También puede encontrarse en 40 tiendas de todo el mundo. El objetivo era formar a cuidadores y niños sobre la tecnología segura. Incluso hay una canción sobre el libro en YouTube. Fue una experiencia muy divertida. Como especialista en tecnología, no tenía idea de que la gente podía interesarse en los libros.