Redactie - 14 juli 2020

Pega: Laat het centrale brein van je bedrijf ethische beslissingen nemen

De visie van Pegasystems op artificial intelligence is dat bedrijven zouden kunnen profiteren van een ‘centraal brein’ dat alle klantgerelateerde interactie stuurt. Steeds meer organisaties gaan ook daadwerkelijk met kunstmatige intelligentie aan de slag, maar dat roept wel nieuwe vragen op. Bijvoorbeeld over de aanbevelingen die AI doet: zijn die niet gebaseerd op ongewenste vooroordelen? We spraken hierover met Peter van der Putten, Director 1:1 Customer Engagement Strategy & Transformation bij Pegasystems.

Verantwoorde toepassing van AI, responsible AI. is om heel veel redenen belangrijk”, zegt Peter van der Putten. “Want AI is een zeer krachtige technologie. Er is een toepasselijke quote op van toepassing: ‘Technologie is niet goed of slecht, maar het is ook niet neutraal’. Aan de ene kant wordt technologie soms utopiaans aangeprezen, soms wordt het neergezet als evil. Maar waar het om gaat is wat je ermee doet. Vanuit die visie hebben we de Ethical Bias Check geïntroduceerd.”

Een van de zaken die daarmee moet worden voorkomen is dat er ongewenste bias komt in automatische beslissingen. “Bijvoorbeeld: wat voor plaatje laat ik iemand zien op een site, of belangrijker, krijgt iemand een hypotheek? Bij automatische beslissingen is het belangrijk dat er geen ongewenste bias is. je wilt niet discrimineren op zaken als geslacht of identiteit. Omdat het wettelijk verboden is, of omdat het niet past in de ethos van een bedrijf.”

Schandaal

Volgens hem is de markt er ondertussen van doordrongen dat dit belangrijk is. “Het leeft enorm bij klanten. Om allerlei reden, waaronder praktische. Want als je het verkeerd doet heb je te maken met een schandaal of een rechtszaak. Veel ontwikkelingen worden gedreven doordat klanten het goede willen doen, maar ze weten niet hoe. Er zijn allerlei initiatieven op verschillende niveaus, die raamwerken neerzetten.”

Dat vereist een brede visie. “Wanner gesproken wordt over AI gaat het vaak over machine learning en bijvoorbeeld klantgedrag. Maar bij geautomatiseerde beslissingen gaan er meer componenten in dan alleen wat modellen., Het gaat ook om business rules die het bedrijfsbeleid weerspiegelen, wat samen leidt tot geautomatiseerde beslissingen. Er zijn dus meerdere plekken waar je bias zou kunnen krijgen, soms door onvolkomenheden in de data die je gebruikt om de beslissingen te maken. Soms door business rules. Op dit moment ligt er veel nadruk op modellen, maar daarmee mis je dus de twee andere belangrijke aspecten.”

Simulatie

Met de bias check kunnen gebruikers op die drie gebieden simuleren welke beslissing een systeem zou kunnen nemen. Op basis van die simulatie kan dan gekeken worden waar die beslissing op gebaseerd is, en wat de grenzen zijn. “Volledig uitsluiten van bias lukt niet, maar je kunt wel duidelijke grenzen stellen.”

Maar hoe voorkom je dat de check gebruikt wordt voor ethics washing, dus een situatie waarbij de check alleen maar voor de vorm wordt gebruikt? Wanneer een bedrijf zegt ‘we hebben alles op orde’, zou de eerste vraag moeten zijn ‘hoe dan’? Heb je het echt geoperationaliseerd, of is er alleen wat aangepast in een paar scripts? Is het daadwerkelijk ingebed in een raamwerk met harde grenzen, waarbij je het onder bepaalde voorwaarden niet uitbrengt? Je moet het zowel aan de kant van zowel de mensen als de systemen geregeld hebben.”

Aantonen

Hij trekt een vergelijking met de financiële sector. Banken moeten nu bijvoorbeeld al, wanneer ze geld uitlenen, geld apart houden als reserve. Als ze bij de Nederlandsche bank kunnen bewijzen dat ze dat risico systematisch goed inschatten mogen ze een kleiner percentage apart zetten. “Dus alleen zeggen dat je het doet is niet voldoende, je moet het kunnen aantonen. Dat zou bij AI ook zo moeten werken.”

Hij verwacht daarom meer convergentie: “Het is goed dat principes worden opgesteld, maar je moet ze uiteindelijk echt toepassen. Dat gaat verder dan alleen een script aanpassen. Want ook als de intentie goed is moet je kunnen aantonen dat je het hebt gedaan. Daar moeten we ook niet te moeilijk over doen, want dat gebeurt op andere gebieden ook.”

Ontdekken

De ethical bias check is vrij recent gelanceerd, en per direct beschikbaar gesteld aan alle klanten van Pegasystems. Dit betekent dat al onze gebruikers die op de laatste versie overschakelen of op de meest recente cloudversie zitten, over deze mogelijkheid beschikken.Want je moet uitvinden hoe je het gaat gebruiken. wat de grenzen zijn, hoeveel bias acceptabel is. Dat kun je alleen maar ontdekken als je het in de echte wereld gaat gebruiken.”

Hij beschrijft dit als de puberteit van AI: “We gaan de kinderfase van AI achter ons laten, nu zijn we aan het opgroeien. AI wordt langzaam volwassen. Waar voorheen AI een speeltje was in allerlei innovatiesituaties, is het nu steeds meer een center out strategie. Dat gaat dus verder dan af en toe een chatbot inzetten. Steeds meer bedrijven zetten in hun bedrijf een centraal brein neer dat invloed heeft op alle beslissingen.”

Business

“Daarbij gaat het om de vraag wat er nu relevant is voor de klant in een bepaalde context, in relatie tot de doelstellingen die je hebt als bedrijf. En misschien is het niet alleen een centraal brein, maar een centraal geweten. Op die manie kun je relevantie toevoegen in iedere klantinteractie die je hebt. Het is steeds minder gefragmenteerd, minder hobby-achtig, maar strategisch en centraal.”

Hij besluit: “Dat is het verschil tussen af en toe een chatbot-project versus hele customer facing organisatie anders inrichten. Op die manier kantel je het bedrijf volledig naar de klant. Wat zijn de klantbehoeften, op het gebied van producten en service, welke klanten willen vertrekken omdat ze ontevreden zijn? Dat is waar bedrijven dat centrale brein voor neerzetten. Dat gaat niet alleen de CIO aan , maar ook de CMO of andere businessfunctionarissen, want op deze manier AI inzetten is tenslotte cruciaal voor de business.”