Grip op artificial intelligence

Grip op artificial intelligence

Auteur: Drs. José Meppelink - Bart Zwartjes MSc
Beeld: Beeld Adobe Stock
7 min

Artificial intelligence (AI) is al lang geen sciencefiction meer en wordt steeds meer een integraal onderdeel van bedrijfsprocessen, zo ook in de financiële sector. Van welke aandachtspunten moet je je nu bewust zijn bij het inzetten van AI in je organisatie?

Hoewel de studie constateert dat het gebruik van AI, en meer specifiek machine learning, nog niet op grote schaal wordt ingezet voor verzekeringstechnische processen, zijn er wel een aantal potentiële toepassingsgebieden te benoemen en gebieden waar AI al daadwerkelijk wordt toegepast:

  1. Fraudedetectie en afhandeling claims
    Voor fraudedetectie wordt vaak gebruikgemaakt van zogeheten ‘claim scoring’, waarbij een claim een score meekrijgt op basis van een aantal karakteristieken van de claim. Komt de score boven een bepaalde drempelwaarde, dan valt de claim in het bakje van mogelijk frauduleus. Claims die als mogelijk frauduleus of afwijkend worden aangemerkt, worden doorgaans door een schadebehandelaar beoordeeld. Verzekeraars zien daarnaast sociaalnetwerkanalyse, waarbij het netwerk van bijvoorbeeld de persoon die de claim indient wordt geanalyseerd op aanwijzingen voor mogelijke fraude, als een mogelijk interessante AI-toepassing. Dit geldt ook voor behavioural modelling, waar gedragingen van indieners van claims worden geanalyseerd.
    Naast fraudedetectie proberen verzekeraars het afhandelen van claims met behulp van AI nauwkeuriger in te richten. Een voorbeeld hiervan is het gebruik van machine-learningtechnieken (bijvoorbeeld voor fotoherkenning of voor analyse van sensordata).
    ­
  2. Beprijzing en acceptatie
    Voor het fijnmaziger bepalen van de risico’s en de resulterende risicobeprijzing wordt ook, zij het beperkt, AI ingezet. Hierbij kan worden gedacht aan het versterken van bestaande risicofactoren of het introduceren van nieuwe risicofactoren in modellen om risicosegmenten verder te verfijnen. Het gaat dan om parameters waarvoor intuïtief een oorzakelijk verband met schade bestaat.
    Voor gedragsbeprijzing, waarbij een deel van de premie wordt vastgesteld op basis van marktomstandigheden en gedragsaspecten, worden ook AI-toepassingen geïdentificeerd. Deze beprijzingsstrategieën zijn veelal gebaseerd op de loyaliteit van klanten, de lifetime value van klanten en premies die de concurrenten hanteren. Beprijzing op basis van specifieke en persoonlijke karakteristieken van (potenti­ële) klanten vindt (nog) niet plaats.
    ­
  3. Customer experience
    De afgelopen jaren zijn veel processen gedigitaliseerd en is geprobeerd de customer experience te verbeteren. Denk hierbij aan het inschatten van klantvragen, verbeterde navigatie van websites, maar soms ook gepersonaliseerde content op de website.
    ­
  4. Technische voorzieningen
    De studie heeft geen AI-toepassingen gevonden voor de inschatting van de verwachte schadelast (technische voorzieningen). Hiervoor worden veelal meer traditionele statistische modellen gebruikt.
    ­
  5. Kapitaalmodellen
    Er zijn in de Nederlandse sector nog geen toepassingen bekend van AI in modellen die de kapitaaleis of allocatie van kapitaal bepalen. De vraag is ook in hoeverre bijvoorbeeld machine-learningtechnieken momenteel een grote meerwaarde kunnen hebben in dergelijke modellen. Van groot belang voor die modellen is om een 1:200 schokscenario te benaderen (de kans waarop de wettelijke kapitaaleis wordt bepaald). Dit vraagt om het opstellen van een (kans)verdeling, terwijl machine-learningtechnieken vooralsnog meer gericht zijn op het vinden van een beste schatting.

De verkennende studie van de AFM en DNB gebruikt de termen AI, AI-modellen of AI-toepassingen en doelt hiermee op toepassingen die zijn gebaseerd op het analyseren van gevarieerde en grote hoeveelheden data met behulp van technieken als ‘machine learning’. De technieken die worden gebruikt in AI-toepassingen (zoals machine learning) zijn ‘intelligent’ in de zin dat ze in staat zijn rationeel te optimaliseren: binnen een gegeven taak zijn ze in staat de beste actie te kiezen om een bepaald doel te bereiken, rekening houdend met gestelde criteria. Naast het gebruik van intelligente technieken zijn ook data een voorwaarde voor en integraal onderdeel van AI-toepassingen.

Aandachtspunten voor AI

De AFM en DNB hebben in de verkennende studie tien aandachtspunten geïdentificeerd die verdere aandacht en dialoog verdienen (zie kader). Deze aandachtspunten zijn onderverdeeld in drie categorieën:

  1. inbedden van AI in de organisatie;
  2. technische aspecten van AI;
  3. AI en de consument.

Aandachtspunten voor AI

Inbedden van AI in de organisatie
1. Hoe kunnen verzekeraars beleid ontwikkelen omtrent het gebruik van AI?
2. Op welke wijze is dit beleid verankerd in de organisatie?

Technische aspecten van AI
3. Hoe kan de kwaliteit en volledigheid van gebruikte input-data voor AI-toepassingen geborgd worden?
4. Hoe kunnen keuzen worden gemaakt omtrent het gebruik van specifieke AI-technieken en -modellen?
5. Welke mate van uitlegbaarheid van AI-toepassingen is gepast?
6. Hoe kan het gebruik van verbanden die leiden tot onwettig onderscheid (discriminatie) vermeden worden?
7. Welke governance en criteria zijn passend bij uitbesteding in het kader van AI-toepassingen?
8. Wat is een passende wijze van validatie voor AI-modellen?

AI en de consument
9. Hoe kan worden voorkomen dat AI-toepassingen op onredelijke wijze inspelen op verwachte patronen of biases in consumentengedrag?
10. Hoe kunnen de uitkomsten van AI-toepassingen worden getoetst op maatschappelijke acceptatie?

  1. Inbedden van AI in de organisatie
    Voor allerlei AI-toepassingen in de organisatie te imple­ menteren ter vervanging, ondersteuning of verbetering van bestaande processen, is het van belang om stil te staan bij de voorwaarden waaronder gebruik van AI door de organisatie wordt geaccepteerd. Startpunt hiervoor is het formuleren van een helder beleid door het bestuur over de inzet van AI-toepassingen, waarbij bewust is nagedacht hoe AI wel en niet mag worden toegepast (aandachtspunt 1). Na het vaststellen van specifiek beleid voor AI-toepassingen dient verankering en communicatie van dit beleid breed in de organisatie geborgd te worden (aandachtspunt 2). Het is van belang dat het beleid niet alleen bekend is bij de onderdelen van de organisatie die AI-toepassingen ontwikkelen, maar ook bij de afdelingen die intern de grenzen van het beleid moeten bewaken, zoals compliance en internal auditors.
    ­
  2. Technische aspecten van AI
    Wanneer ervoor wordt gekozen om AI-toepassingen te ont­ wikkelen en implementeren, is het van belang stil te staan bij de zogenaamde technische aspecten van de technologie. Dit begint bij de kracht van kwalitatief sterke en gevarieerde inputdata (aandachtspunt 3). Een AI-toepassing is niets waard zonder correcte, volledige, gevarieerde en voldoende data. Onvolledige of incorrecte data kan leiden tot opname van foutieve verbanden in het model. Daarnaast is een model niet in staat verbanden (risico’s) te herkennen die niet in de data zitten. Dit risico wordt vergroot naarmate de data minder divers is.Wanneer de kwaliteit van de inputdata geborgd kan worden is het van belang een weloverwogen keuze te maken voor het in te zetten AI-model (aandachtspunt 4). Wanneer bijvoor­ beeld gekozen wordt voor een model waar het moeilijker is de verbanden in het model (op intuïtieve wijze) te analyse­ ren, loopt men het risico de uitkomsten en verbanden niet goed te overzien, waardoor de volledige controle over het model niet gegarandeerd kan worden. Dit kan in het ergste geval leiden tot het nemen van verkeerde beslissingen. Zeker in het geval van gevoelige processen is uitlegbaarheid van uitkomsten van AI-toepassingen van groot belang (aandachtspunt 5).­ Met uitlegbaarheid wordt enerzijds bedoeld dat de organisatie in staat is aan te geven hoe bepaalde inputdata leiden tot een bepaalde keuzen. Anderzijds is de organisatie in staat om aan te geven welke verandering van inputwaarden nodig zijn om een verandering in de uitkomst van het model tot stand te brengen. De gevraagde mate van uitlegbaarheid is sterk afhankelijk van het specifieke proces en de betrokken stakeholders (bijvoorbeeld consumenten, toezichthouder, et cetera). Bij de keuze voor een model is het van belang om de vraag omtrent de mate van uitlegbaarheid mee te wegen in de uiteindelijke keuze.Naast de focus op de inputdata en modelkeuze dient te allen tijde voorkomen te worden dat verbanden uit AI-toepassingen leiden tot onwettig onderscheid/discriminatie (aandachtspunt 6). Ondanks dat dit evident lijkt te zijn, gaat dit vaak mis bij het gebruik van AI. Neem als voorbeeld de AI-recruitmenttoepassing van Amazon, waar de toepassing gevoed werd met cv’s van kandidaten die in het verleden waren aangenomen om zo te leren potentiële nieuwe kandidaten te selecteren. Doordat er in het verleden veelal mannelijke kandidaten solliciteerden en werden aan­ genomen, leerde het systeem onbedoeld om een voorkeur te hebben voor de cv’s van mannelijke kandidaten.Naast dat dit voorbeeld laat zien hoe snel discriminatie in een AI-toepassing kan sluipen, geeft het ook goed weer dat het lastig kan zijn om foutieve uitkomsten van een toepassing op te merken. Het is voor een organisatie dan ook cruciaal om in control te blijven van wat men doet en te begrijpen wat er gebeurt, ook als men bijvoorbeeld het ontwikkelen van AI-toepassingen uitbesteedt aan externe partijen (aandachtspunt 7). Ditzelfde geldt voor de validatie van de AI-toepassingen, waarbij op regelmatige basis gekeken wordt in hoeverre een toepassing nog ‘fit for purpose’ is en het doet wat het moet doen (aandachtspunt 8). Zeker voor zelflerende modellen is het een uitdaging om adequaat te valideren, aangezien het model zichzelf continu optimaliseert op basis van de data waarmee het gevoed wordt.
    ­
  3. AI en de consument
    De verkennende studie is geschreven voor de verzekeringssector. Vanuit dat perspectief is gekeken naar het gebruik van AI en het mogelijke effect op de consument. Zo biedt AI ook allerlei mogelijkheden om meer in detail karakteristieken van consumenten te analyseren. Hierbij is het van belang dat de AI-toepassingen die gebruikt worden in beslisomgevingen consumenten moeten stimuleren (bewust of onbewust) beslissingen te nemen die hun financiële welzijn ten goede komen (aandachtspunt 9).Daarnaast is het in de context van verzekeringen van belang dat AI-toepassingen en de uitkomsten niet alleen technisch uitlegbaar zijn, zoals eerder in dit artikel aangestipt, maar ook maatschappelijk uitlegbaar en acceptabel zijn. Ondanks dat het model mogelijk een juist onderbouwd en uitlegbaar antwoord geeft, dient de maatschappelijke acceptatie meegewogen te worden in het uiteindelijke besluit van een verzekeraar (aandachtspunt 10).

Solidariteit

Aandachtspunt 10 sluit tevens aan bij de druk die AI kan leggen op het solidariteitsprincipe dat we in Nederland kennen. Afhankelijk van de toepassing kan AI zowel een positieve als negatieve impact hebben op verzekerbaarheid en solidariteit. De verwachte groei in het gebruik van AI benadrukt de noodzaak van een breder maatschappelijk debat over solidariteit in de verzekeringssector. Wel is het van belang dat de maatschappelijke discussie over soli­dariteit breder wordt gevoerd en zich niet alleen richt op AI-toepassingen: er zal gesproken moeten worden over de gewenste mate van solidariteit in het verzekeringsstelsel als geheel. Het gaat hier om keuzen die de maatschappij als geheel raken en die de samenleving dus als geheel zal moeten maken.

Potentiële rol voor internal auditors

De in dit artikel genoemde aandachtspunten helpen internal auditors om zich bewuster te zijn van de risico’s en kansen van AI, zeker wanneer in de organisatie gebruik wordt gemaakt van AI-toepassingen. Naast de hiervoor genoemde punten bevat de gepubliceerde versie van de studie handvatten voor internal auditors in de vorm van concrete vragen die de organisatie zichzelf kan stellen bij elk van de aandachtspunten. Deze vragen kunnen internal auditors ook helpen om de keuzen bij (voorgenomen) toepassingen van AI kritisch te toetsen.

De volledige studie is terug te vinden op de websites van de AFM en DNB onder de naam: Artificiële intelligentie in de verzekeringssector | een verkenning.

Over
Bart Zwartjes werkt bij de Autoriteit Financiële Markten (AFM) en leidt het onderzoek naar de impact van AI op de financiële sector en de rol van de toezichthouder.

José Meppelink werkt bij De Nederlandsche Bank (DNB) en is verantwoordelijk voor het beleid rondom InsurTech; zij kijkt hierbij naar technologische ontwikkelingen in de verzekeringssector en de rol van de toezichthouder.

Een artikel aanleveren? Lees onze aanleverinstructies.
0 likes

Reacties (0)

Wilt u ook een reactie plaatsen?

Voor het plaatsen van een reactie vereisen wij dat u bent ingelogd. Heeft u nog geen account? Registreer u dan nu. Wilt u meer informatie over deze vereiste? Lees dan ons privacyreglement.