Zum Hauptinhalt wechseln
Ein Magazin von Pega

We'd prefer it if you saw us at our best.

Pega.com is not optimized for Internet Explorer. For the optimal experience, please use:

Close Deprecation Notice
Christopher Null
Christopher Null
Autor
2 Minuten Lesezeit

KI ohne Vorurteile

Als Mitinitiatorin eines Bürgerbegehrens gegen diskriminierende Gesichtserkennungstechnologien in einer US-Metropole setzt sich Elizabeth Adams heute für den verantwortungsvollen Einsatz von künstlicher Intelligenz in der Wirtschaft ein.
Weiterempfehlen Share via x Share via LinkedIn Copying...

Mit über 25 Jahren Erfahrung in der Technologiebranche ist ihr Name mittlerweile in den USA untrennbar mit der Forderung nach ethischen Prinzipien bei der Entwicklung, beim Training und beim Einsatz von KI verknüpft. Als Verfechterin von Gleichberechtigung und mehr Inklusion ist Adams vor allem als Rednerin aktiv und unterstützt als Beraterin Projekte, die Voreingenommenheit bei der Entwicklung von KI-Lösungen ausschließen oder zumindest reduzieren sollen. Mit einem eigenen Programm namens „Leadership of Responsible AI“ unterstützt Adams Führungskräfte in der Wirtschaft bei ethischen KI-Fragen in der Praxis.

KI-Verzerrungen entstehen, weil die Daten für das Training der KI nicht ausreichend breit und divers sind.


Adam trifft mit ihrem Engagement einen Nerv der Zeit: Nach einer Studie von Gartner dürften 85 % aller seit 2018 entwickelten KI-Projekte fehlerhafte Ergebnisse wegen vorurteilsbehafteten Daten und Algorithmen liefern – oder auch, weil die KI-Teams im Unternehmen unbewusste Vorurteile haben. Bei einem Interview mit dem GO!-Magazin erläuterte Adams, welche Ursachen diese Problematik hat und wie Unternehmen diskriminierende Algorithmen in den Griff bekommen können.

KI-Verzerrungen machen meist nur Schlagzeilen wegen der Skurrilitäten und ungewollten Komik, die z. B. manche Chatbots verursachen. Aber wie ernst ist das Problem wirklich?

KI-Verzerrungen entstehen, weil die Daten für das Training der KI nicht ausreichend breit und divers sind. Die Folgen können schwerwiegend sein und unterschiedlichste Bereiche unseres Alltags betreffen – von Bewerbungsverfahren über die Hypothekenvergabe bis hin zur Wohnungssuche oder zum Versicherungsabschluss. Es sind sogar Fälle bekannt, in denen KI-Algorithmen bei COVID-19-Impfkampagnen eine höhere Priorität für Führungskräfte aus der Wirtschaft als für Krankenhausmitarbeiter empfohlen oder bestimmte (zumeist privilegierte) Bevölkerungsgruppen bei der Impfstoffzuteilung klar bevorzugten. Probleme dieser Art gibt es überall. Doch für eine Lösung müssen wirklich alle an einem Strang ziehen und die Ursachen interdisziplinär sowie systemübergreifend angegangen werden.

Es handelt sich offenbar um ein äußerst komplexes Thema. Wie sind Sie darauf aufmerksam geworden?

Ich habe mich drei Jahre lang in meiner Heimatstadt Minneapolis intensiv mit diesem Thema befasst, einerseits als besorgte Bürgerin, andererseits als Mitglied des kommunalen Gleichberechtigungsausschusses. Später habe ich mich dann als Mitbegründerin einer Initiative für ein stärkeres Mitspracherecht der Bevölkerung bei öffentlichen Überwachungstechnologien engagiert. Unsere Initiative forderte die Stadt auf, Gesichtserkennungsverfahren zu untersagen – und letztlich tat der Stadtrat das auch. Unser basisdemokratischer Ansatz hatte also Erfolg. Allerdings kostete es all die Freiwilligen viel Zeit, die sie lieber mit ihren Familien verbracht hätten. Es ist traurig, dass man überhaupt für dieses Anliegen auf die Straße gehen muss, sichere Technologien sollten eigentlich ein Grundrecht sein. Doch zumeist müssen sich genau die Leute, die ohnehin schon am stärksten unter KI-Verzerrungen leiden, auch noch auf eigene Kosten für dieses wichtige Ziel einsetzen. Tatsächlich besteht die Chance, die Weichen für eine effektive Lösung in Behörden und Unternehmen zu stellen. Und genau das sollten wir tun.

Elizabeth Adams

Was können wir zu einem verantwortungsvollen KI-Einsatz beitragen?

Die Vereinten Nationen haben Ethik-Leitlinien für eine vertrauenswürdige KI zusammengestellt. Das National Institute of Standards and Technology (NIST) bietet ein Beurteilungsverfahren, das alle Anbieter von Gesichtserkennungstechnologien nutzen sollten. Gemeinnützige Einrichtungen wie das AI Ethics Institute in Montreal haben Ethik-Leitfäden herausgegeben, die Unternehmen bei der Erkennung, Messung und Korrektur rassistischer KI-Verzerrungen unterstützen. Unternehmen wie Microsoft setzen ebenfalls auf mehr Verantwortung beim Umgang mit KI. All diese Organisationen und Einrichtungen konzentrieren sich auf alle Aspekte des KI-Lebenszyklus, um den Schaden durch schlechte Algorithmen in Grenzen zu halten oder im besten Fall ganz zu vermeiden.

Wenn ich Unternehmen bei der Lösung geschäftlicher Probleme berate, stelle ich ihnen immer die Frage: Ist KI dazu wirklich nötig?


Können wir dieses Problem allein mit Leitfäden und Richtlinien in den Griff bekommen?

Nein, aber beides sind wichtige erste Schritte. Wenn ich Unternehmen bei der Lösung geschäftlicher Probleme berate, stelle ich ihnen immer die Frage: Ist KI dazu wirklich nötig? Man muss künstliche Intelligenz ja nicht um ihrer selbst willen implementieren. Ich erarbeite mit den Unternehmen zunächst ethische Grundsätze als Rahmenwerk für den verantwortungsvollen Einsatz von KI. Danach erstellen wir konkrete Leitfäden.

Das klappt aber nur, wenn sich Führungskräfte aus technischen und nichttechnischen Bereichen gemeinsam am KI-Entwicklungszyklus beteiligen. Sobald ich das geschäftliche Problem verstanden habe, suche ich zunächst nach Möglichkeiten für schnelle Erfolge und anschließend besprechen wir die nächsten Schritte. Das alles sollte in eine langfristige Strategie eingebettet und keine einmalige Angelegenheit sein. Das ultimative Ziel ist eine nachhaltige Lösung mit gesellschaftlichem Wert.

Sie haben ein Kinderbuch über KI geschrieben. Was hat Sie dazu veranlasst?

Ich liebe Kurzgeschichten. Beim Schreiben kommen mir oft Ideen, wie sich komplexe technologische Herausforderungen überwinden lassen. Als die Pandemie über uns hereinbrach, saßen wir alle zu Hause fest. Ich wollte diese Zeit sinnvoll nutzen und endlich ein Buch schreiben – das hatte ich schon ganz lange vor. „Little A.I. and Peety“ war ursprünglich ein E‑Book für Eltern, die sich gemeinsam mit ihren Kindern modernen Technologien annähern wollen. Nach der Veröffentlichung bekam ich einen Anruf von einer Kindertagesstätte in Minneapolis. Man wollte das Buch gern kaufen, wünschte sich aber eine Hardcover-Ausgabe. Gesagt, getan: Mittlerweile stehen die Bücher hier knapp 3.000 Schülern und Schülerinnen zur Verfügung und sind weltweit in 40 Läden erhältlich. Ich wollte Kindern und ihren Bezugspersonen gern beibringen, wie wichtig sichere Technologien sind. Es gibt sogar ein Lied, dass man auf YouTube mitsingen kann. Das hat mir alles Riesenspaß gemacht. Als Technologin hätte ich nicht damit gerechnet, dass ein solches Buch so gut ankommt.

Weiterempfehlen Share via x Share via LinkedIn Copying...