Passer directement au contenu principal
Un magazine Pega

We'd prefer it if you saw us at our best.

Pega.com is not optimized for Internet Explorer. For the optimal experience, please use:

Close Deprecation Notice
Christopher Null
Christopher Null
Auteur
2 min de lecture

Des IA plus justes pour l'avenir

Elizabeth Adams a codirigé une initiative civile visant à proscrire l'utilisation par une municipalité d'une technologie de reconnaissance faciale biaisée. Aujourd'hui, elle veut aider les dirigeants d'entreprise à créer des Intelligences Artificielles (IA) justes et impartiales.
Partager cette page Share via x Share via LinkedIn Copying...

Elizabeth Adams a plus de 25 ans d'expérience dans la tech, mais c'est seulement depuis quelques années que son nom est associé à une question de la plus haute importance : l'éthique de l'IA. Militante en faveur de l'égalité hommes-femmes et de l'inclusion, elle est aujourd'hui conférencière et consultante. Elle promeut des initiatives visant à réduire voire éliminer les biais dans l'ensemble du cycle de développement des produits basés sur l'IA. Son programme Leadership of Responsible AI aide les dirigeants d'entreprise à concrétiser ces concepts.

Le biais des IA est bien réel. Il provient des données utilisées pour entraîner les algorithmes : elles manquent de diversité en matière de genres, de races et d'ethnicités.


Son travail arrive à un moment charnière. D'après Gartner, 85 % des projets d'IA créés entre 2018 et cette année généreront des résultats erronés en raison de biais au niveau des données, des algorithmes ou des équipes qui les gèrent. Basée à Minneapolis, Elizabeth Adams a accepté de répondre aux questions de GO! et nous fait découvrir ses recommandations aux entreprises pour lutter contre ces biais.

Dans les médias, les biais de l'IA sont souvent présentés comme des histoires insolites, tel qu'un chatbot qui déraille et se met à insulter les utilisateurs qu'il est censé aider. Y a-t-il vraiment matière à s'inquiéter ?

Le biais des IA est bien réel. Il provient des données utilisées pour entraîner les algorithmes : elles manquent de diversité en matière de genres, de races et d'ethnicités. C'est un problème colossal qui s'est insinué dans les domaines du recrutement, des prêts immobiliers, du logement et de l'assurance. Certains algorithmes ont même poussé à vacciner en priorité des cadres contre la COVID-19 plutôt que le personnel hospitalier exposé. D'autres choisissaient quelles communautés doivent recevoir plus de vaccins que d'autres, et la balance penche souvent vers les plus privilégiées. Ces biais sont partout. Pour les éliminer, nous devons mobiliser les experts de divers domaines et systèmes.

La question des biais semble être plus complexe qu'il n'y paraît. Comment en êtes-vous venue à travailler sur ce sujet ?

J'ai passé trois ans en immersion au sein des communautés de Minneapolis, comme citoyenne engagée, mais aussi dans le cadre d'une mission pour le comité municipal pour l'égalité raciale. J'ai ensuite contribué à mettre sur pied une association pour la transparence des technologies de surveillance. Notre association a appelé la ville à mettre un terme à l'utilisation des technologies de reconnaissance faciale, ce qu'elle a fini par accepter. Notre mouvement est vraiment né de la société civile. Nos bénévoles ont pris sur leur temps personnel pour défendre ce qui devrait être un droit fondamental : bénéficier d'une technologie sûre. Les personnes généralement victimes de ce biais sont celles qui font tout le travail, sans être rémunérées. Nous avons la possibilité de nous attaquer à ce problème bien en amont, au niveau des dirigeants des gouvernements et des entreprises. C'est ce qu'il faut faire.

Elizabeth Adams

Mais alors, que peut-on faire pour résoudre ces problèmes ?

Les Nations unies ont établi des directives d'éthique pour l'IA. Le National Institute of Standards and Technology (NIST) propose un test de reconnaissance faciale auquel chaque éditeur de solutions de ce type devrait se soumettre. Des organisations à but non lucratif, comme le Montreal AI Ethics Institute, ont publié des guides d'éthique permettant aux organisations de définir, mesurer et limiter les biais raciaux de l'IA. Des entreprises comme Microsoft travaillent à la mise en place d'une équipe chargée de l'éthique de l'IA. Tous ces groupes cherchent à décomposer le cycle de vie de l'IA pour déterminer comment limiter et/ou éliminer le plus efficacement possible les méfaits des algorithmes.

Lorsque je conseille une entreprise, je lui demande toujours si l'IA est nécessaire à la résolution du problème qu'elle m'a présenté.


La publication de guides et de directives sera-t-elle vraiment suffisante ?

C'est en tout cas un début. Lorsque je conseille une entreprise, je lui demande toujours si l'IA est nécessaire à la résolution du problème qu'elle m'a présenté. Ce n'est pas parce que l'IA existe qu'il faut l'adopter. Je travaille avec les entreprises pour poser les principes d'une IA éthique, puis je passe à un guide plus complet une fois qu'elles ont établi un cadre adapté.

Mais pour y parvenir, le leadership doit être partagé. Les responsables techniques et métier doivent contribuer au cycle de développement de l'IA. Une fois que j'ai compris le problème de l'entreprise, j'essaie de déterminer comment elle pourrait rapidement mettre en place des solutions. Ensuite, nous commençons à parler de l'avenir. Il ne peut pas s'agir d'un effort ponctuel, il doit d'inscrire sur le long terme. Au final, il doit être à la fois durable et bénéfique à la communauté.

Vous avez écrit un livre pour enfants sur l'IA. Comment vous est venue cette idée ?

J'adore les nouvelles et histoires courtes. Les écrire m'aide à résoudre des problèmes techniques complexes. Lorsque la pandémie de COVID nous a forcés à rester chez nous, j'ai décidé de poursuivre mon rêve d'écrire un livre. À l'origine, « Little A.I. and Peety » était un e-book destiné à aider les parents à parler des nouvelles technologies avec leurs enfants. Un jour, une garderie de Minneapolis m'a appelée pour pouvoir acheter la version papier. Près de 3 000 élèves ont désormais accès à ce livre, et il est vendu dans 40 magasins du monde entier. Son objectif était d'aborder la question d'une utilisation sûre des technologies avec les professionnels de l'éducation et les enfants. Il y a même une chanson sur YouTube. J'ai beaucoup apprécié cette expérience. En tant qu'experte en technologies, je n'imaginais pas qu'un livre puisse avoir autant de succès.

Partager cette page Share via x Share via LinkedIn Copying...