

Creare un futuro equo con l'IA

Elizabeth Adams ha dedicato oltre 25 anni della sua vita alla tecnologia, ma solo negli ultimi anni il suo nome è diventato sinonimo di un'urgenza: IA etica. Sostenitrice dell'inclusione e dell'uguaglianza di genere, Adams ora lavora come relatrice e consulente per promuovere iniziative volte a ridurre o eliminare i pregiudizi nel ciclo di vita di sviluppo di prodotti basati sull'IA. L'obiettivo del suo programma Leadership of Responsible AI è aiutare i leader aziendali a trasformare questi concetti in realtà.

Il pregiudizio nell'IA esiste ed è dovuto alla scarsa diversità nei dati di training in termini di genere, razza o etnia.
Il suo impegno arriva in un momento cruciale. Gartner prevede che l'85% dei progetti IA creati dal 2018 a oggi fornirà risultati errati a causa dei pregiudizi nei dati, negli algoritmi o nei team che li gestiscono. Adams, che vive a Minneapolis, di recente ha trovato il tempo per parlare con GO! di queste problematiche e di come offre consulenza alle aziende sulla complessità di affrontare i pregiudizi negli algoritmi.

Il pregiudizio nell'IA è spesso presente nei media come un aneddoto bizzarro, come quando una chatbot basata sull'IA perde la testa e insulta gli utenti. Quanto può essere grave questo problema?
Il pregiudizio nell'IA esiste ed è dovuto alla scarsa diversità nei dati di training in termini di genere, razza o etnia. Si tratta di un problema enorme che si verifica nelle assunzioni, nella concessione di mutui, nel mercato immobiliare e nelle assicurazioni. Per non parlare degli algoritmi dell'IA che hanno stabilito che i dirigenti aziendali ricevessero il vaccino anti COVID-19 prima degli operatori sanitari in prima linea oppure gli algoritmi che sceglievano quali comunità, solitamente le più privilegiate, ricevessero più vaccinazioni di altre. Succede ovunque. Per affrontare il problema, dobbiamo impegnarci con tutte le nostre risorse ad analizzarlo alla luce di diverse discipline e sistemi.

La questione è più complessa di quanto possa sembrare. Come ti sei trovata coinvolta?
Ho vissuto tre anni immersa nelle comunità della città di Minneapolis, sia come cittadina coinvolta sia come membro del comitato di consulenza locale per l'equità razziale. Successivamente, ho contribuito alla formazione di una coalizione per affrontare il problema della tecnologia di sorveglianza nella vigilanza pubblica. La nostra coalizione chiedeva al comune di vietare la tecnologia di riconoscimento facciale, richiesta che alla fine è stata accolta. Era un movimento partito dal basso che ha visto volontari sottrarre tempo alle loro famiglie, per combattere per quello che dovrebbe essere un diritto umano fondamentale: una tecnologia sicura. Le persone che di solito vengono danneggiate da questi pregiudizi sono anche quelle che si impegnano di più, di solito senza fondi a disposizione. Abbiamo l'opportunità di portare questa battaglia su una scala molto più grande, nel governo e nelle imprese ed è questo che dovremmo fare.


Come possiamo risolvere tutto questo?
Le Nazioni Unite hanno definito le linee guida per l'IA etica. Il National Institute of Standards and Technology (NIST) mette a disposizione un test per i fornitori di tecnologie di riconoscimento facciale a cui ogni azienda del settore dovrebbe partecipare. Organizzazioni no profit come il Montreal AI Ethics Institute hanno prontuari di etica che possono aiutare le aziende a definire, misurare e mitigare i pregiudizi razziali nell'IA. Aziende come Microsoft stanno lavorando per costruire un team di IA responsabile. Tutti questi gruppi stanno cercando di smontare il ciclo di vita dell'IA pezzo per pezzo per capire come ridurre e/o eliminare al meglio i danni degli algoritmi.

Quando offro la mia consulenza alle aziende sui pregiudizi nell'IA, dopo aver capito quale problema intendono risolvere, chiedo sempre se l'IA sia davvero necessaria per quel problema.

Prontuari e linee guida basteranno?
Sono un inizio. Quando offro la mia consulenza alle aziende sui pregiudizi nell'IA, dopo aver capito quale problema intendono risolvere, chiedo sempre se l'IA sia davvero necessaria per quel problema. Solo perché l'IA esiste non significa che serva sempre. Lavoro con le aziende per sviluppare prima di tutto principi di IA etica, quindi passo al prontuario dopo che hanno sviluppato un framework di IA responsabile.
Questo richiede una leadership condivisa. Leader tecnici e non tecnici devono essere coinvolti nel ciclo di vita di sviluppo dell'IA. Una volta compreso il problema aziendale, inizio a individuare i risultati più rapidi. Quindi stabiliamo insieme le fasi successive. Il percorso deve avere una visione a lungo termine, non è un processo immediato. Infine, tutto deve portare a una soluzione sostenibile e vantaggiosa per la comunità.

Hai scritto un libro per bambini sull'IA. Cosa ti ha spinto a farlo?
Adoro i racconti. Scriverli mi aiuta a risolvere complessi problemi tecnologici. Quando è arrivato il COVID, eravamo tutti a casa e ho deciso di non abbandonare il mio sogno di scrivere un libro. "Little A.I. and Peety" è iniziato come un e-book per aiutare i genitori a parlare della tecnologia emergente ai bambini. Dopo la pubblicazione, ho ricevuto una telefonata dall'asilo di Minneapolis in cui mi informavano che se avessi pubblicato il libro in versione cartacea l'avrebbero comprato. Ora quasi 3.000 studenti qui hanno accesso ai miei libri, che sono presenti in 40 negozi in tutto il mondo. L'obiettivo era spiegare la tecnologia sicura a educatori e bambini. C'è anche una canzoncina su YouTube. È stata un'esperienza davvero entusiasmante. Come tecnologa, non avevo idea di quanto le persone fossero appassionate di libri.