Het gebruik van kunstmatige intelligentie (AI) in het beleggingslandschap neemt snel toe, met tools en apps die steeds meer een leidraad zijn voor zowel individuele als institutionele beleggers. Deze systemen bieden krachtige voordelen, zoals het analyseren van enorme hoeveelheden gegevens, het identificeren van trends en het in realtime genereren van op maat gemaakte beleggingsaanbevelingen. 

Hoewel de potentiële voordelen van AI-ondersteund beleggen aanzienlijk zijn, brengen ze ook even grote risico's met zich mee. Onnauwkeurige outputs, ondoorzichtige algoritmen en databias kunnen leiden tot misleidende conclusies en zelfs ernstige financiële verliezen. Naarmate de technologie meer ingebed raakt in het beleggingsproces, is een doordachte aanpak die innovatie in evenwicht brengt met verantwoordelijkheid cruciaal. Dit artikel onderzoekt de kansen en risico's van AI-gestuurde beleggingsinstrumenten, met een focus op het evoluerende regelgevingslandschap, met name de implicaties van de EU-wet op kunstmatige intelligentie (AI-wet). Het gaat ook in op recente richtlijnen van regelgevende instanties zoals de AFM en ESMA, en vraagt bij de beoordeling van de systemen aandacht voor internationale kaders zoals de OESO-beginselen voor betrouwbare AI.

Dit artikel is geschreven door Kristi Rutgers ([email protected]) en Sefa Geçikli ([email protected]). Kristi en Sefa maken deel uit van RSM Netherlands Business Consulting Services, specifiek gericht op Internationale Handel en Strategie.

Achtergrond

Steeds meer beleggers gebruiken AI-tools en -apps die beleggingsaanbevelingen doen op basis van openbaar beschikbare informatie. AI biedt opmerkelijke voordelen bij financiële besluitvorming, vooral gezien het vermogen van AI om enorme hoeveelheden gegevens te verwerken. AI-tools kunnen snel patronen en marktinzichten blootleggen die menselijke analisten misschien over het hoofd zien. De inzichten kunnen dienen als een waardevolle bron om de strategieën van (zelf)investeerders te ondersteunen. AI-tools kunnen aanzienlijke kansen bieden op het gebied van investeringen, met name AI is in staat om snel grote datasets te analyseren om trends of anomalieën te identificeren, realtime updates te bieden op basis van marktomstandigheden en gepersonaliseerde investeringssuggesties te genereren. 

Ondanks deze kansen en voordelen brengt het gebruik van AI bij beleggen aanzienlijke risico's met zich mee die leiden tot financiële verliezen. Zoals de risicogebieden bij alle AI-tools, is de kwaliteit van de gegevens die naar de AI-tool worden gevoerd een belangrijke factor om de gewenste resultaten te genereren. Het principe van 'garbage in, garbage out' is hier sterk van toepassing - als de gegevens die aan het AI-model worden verstrekt verouderd, bevooroordeeld of onvolledig zijn, kunnen de gegenereerde aanbevelingen en inzichten misleidend zijn, gevaarlijke situaties en ernstige financiële verliezen veroorzaken.  

De belangrijkste risico's van AI-tools zijn onder meer: 

  • Vooringenomenheid in algoritmen: AI-tools kunnen onbedoeld bepaalde soorten investeringen bevoordelen op basis van scheve invoergegevens.
  • Gebrek aan transparantie: Vaak beschreven als "zwarte dozen", leggen veel AI-systemen hun redenering niet uit, waardoor het voor gebruikers moeilijk wordt om de output aan te vechten of te begrijpen.
  • Hallucinaties: AI kan soms informatie produceren die overtuigend lijkt, maar feitelijk onjuist of volledig verzonnen is.
  • Privacy- en beveiligingsproblemen: Veel AI-tools van consumentenkwaliteit beschermen de persoonlijke en financiële gegevens van gebruikers mogelijk niet adequaat.

Regelgevende context

Om de risico's met betrekking tot AI-tooling te beperken en de kansen ervan te benutten, moeten beleggers zich bewust zijn van de regelgevingscontext met betrekking tot AI. De wet op de kunstmatige intelligentie van de Europese Unie (EU AI Act) legde de nadruk op transparantie, verantwoordingsplicht en gegevensbescherming in AI-toepassingen. Zoals benadrukt in onze vorige aflevering, introduceert de AI-wet een uitgebreid kader om de verantwoorde inzet van AI te waarborgen. Beleggers worden aangemoedigd om na te gaan of de AI-instrumenten in overeenstemming zijn met de AI-wet van de EU, maar ook met de OESO-beginselen voor betrouwbare AI. 

De AI-principes van de OESO, die in 2019 zijn aangenomen, bieden een internationaal kader voor de verantwoorde ontwikkeling en het verantwoorde gebruik van kunstmatige intelligentie. Deze principes benadrukken dat AI-systemen inclusief, transparant, veilig, eerlijk en verantwoordelijk moeten zijn en dat ze de mensenrechten, democratische waarden en de rechtsstaat moeten respecteren. Ze roepen ook op tot risicobeheer, inclusief transparantie over AI-mogelijkheden en -beperkingen, en ervoor zorgen dat AI-systemen worden gebruikt op een manier die mensen en de planeet ten goede komt. De principes dienen als leidraad voor overheden, ontwikkelaars en organisaties om betrouwbare AI te bouwen die aansluit bij ethische en maatschappelijke normen over de grenzen heen.

Op grond van de AI-verordening van de EU blijven financiële instellingen die gebruikmaken van AI-systemen - zoals op AI gebaseerde beleggingsinstrumenten, onderworpen aan hun bestaande regelgevingsverplichtingen uit hoofde van de Uniewetgeving inzake financiële diensten. Zoals vermeld in de overweging, bevatten deze wetten al interne governance- en risicobeheervereisten, die van toepassing blijven wanneer AI-systemen worden gebruikt in de dienstverlening. De AI-verordening is bedoeld om deze bestaande kaders aan te vullen, niet te dupliceren, door ervoor te zorgen dat de verplichtingen ervan (zoals risicobeoordeling, documentatie en monitoring na het in de handel brengen) op coherente wijze worden geïntegreerd in het toezicht op de financiële sector. In de overweging wordt verduidelijkt dat bestaande toezichthoudende autoriteiten - zoals die welke toezicht houden op banken, verzekeraars en kredietinstellingen - ook verantwoordelijk zullen zijn voor de handhaving van de AI-verordening binnen hun sectoren. Deze autoriteiten zijn aangewezen om toezicht te houden op de uitvoering van de AI-verordening, met inbegrip van markttoezicht op AI-systemen met een hoog risico die in financiële diensten worden gebruikt. 

Belangrijk is dat de verordening voorziet in bepaalde afwijkingen en procedurele integratie om dubbel werk te voorkomen, zoals het opnemen van AI-specifieke risicobeheerverplichtingen in bestaande nalevingsprocessen in het kader van het financieel recht. Deze aanpak maakt het mogelijk om AI-governance in te bedden in vertrouwde toezichtstructuren, waardoor de compliance voor financiële instellingen wordt gestroomlijnd.

Voor ontwikkelaars en gebruikers van AI-beleggingsinstrumenten betekent dit dat de naleving van de AI-wet niet op zichzelf staat, maar in overeenstemming moet zijn met sectorspecifieke financiële regelgeving. Wanneer deze instrumenten onder de categorie AI met een hoog risico vallen, moeten instellingen aantonen dat de uitrol ervan voldoet aan zowel AI-specifieke verplichtingen als bestaande normen voor financieel toezicht. Zoals in de overweging wordt opgemerkt, draagt dit geïntegreerde toezichtmodel bij tot het waarborgen van consistentie, voorkomt het overlapping van de regelgeving en weerspiegelt het de erkenning door de EU van de complexe, onderling verbonden aard van AI-innovatie en financiële regelgeving.

De AI-wet classificeert elk AI-systeem dat bedoeld is om de kredietwaardigheid van natuurlijke personen te beoordelen of hun kredietscore vast te stellen, als risicovol, behalve wanneer het uitsluitend wordt gebruikt voor het opsporen van financiële fraude.

Beleggingsmaatschappijen, met name die welke retailbeleggingsproducten aanbieden  (bv. robo-adviseurs, platforms voor vermogensbeheer), gebruiken vaak AI-gestuurde instrumenten om het financiële profiel van een cliënt te beoordelen, waaronder:

  • Geautomatiseerde scores om te bepalen of u in aanmerking komt voor investeringen
  • Risicotolerantie profilering
  • Segmentatie op basis van inkomen of activa

Als deze systemen bepalingen uitvoeren die vergelijkbaar zijn met kredietwaardigheidsbeoordelingen, kunnen ze onder de categorie met een hoog risico vallen, vooral als ze van invloed zijn op beslissingen zoals productgeschiktheid of toegang tot financiële producten.

AI-systemen die worden gebruikt om aan MiFID II-verplichtingen te voldoen  (bv. geschiktheids- en passendheidstests) kunnen qua functie dicht bij kredietbeoordelingen liggen. Als dergelijke systemen voorspellende modellen of scoringsalgoritmen gebruiken om klanten te categoriseren of de toegang tot beleggingsdiensten te beperken, kunnen ze naleving van AI-vereisten met een hoog risico vereisen, zoals:

  • Kaders voor risicobeheer
  • Transparantie en uitlegbaarheid
  • Menselijk toezicht
  • Robuust gegevensbeheer

Leidraad AFM en ESMA voor consumenten

Aan de consumentenkant hebben de AFM en ESMA een campagne gepubliceerd die specifiek gericht is op aspecten waar (zelf)beleggers rekening mee moeten houden: 

  • Overweeg meerdere perspectieven: Vertrouw bij het nemen van investeringsbeslissingen niet alleen op AI-tools, maar gebruik ze als een van de vele bronnen. Raadpleeg bijvoorbeeld ook een erkende beleggingsadviseur.
  • Weersta de verleiding om snel rijk te worden: Wees sceptisch over AI-tools die met hun beleggingsstrategieën een hoog rendement beloven.
  • Wetgeving is belangrijk: AI-tools die online openbaar beschikbaar zijn, zijn niet wettelijk verplicht om in uw belang te handelen.
  • Begrijp de risico's: Wees je bewust van de beperkingen en mogelijke onnauwkeurigheden van door AI gegenereerd advies. Het kan gebaseerd zijn op verouderde, onjuiste of onvolledige informatie.
  • Bescherm uw privacy: AI-tools hebben mogelijk geen adequate beveiligingsmaatregelen getroffen om uw persoonsgegevens te beschermen.

Vooruitdenken

AI staat klaar om een nog grotere rol te spelen in de wereld van beleggen en de manier waarop beslissingen worden genomen, risico's worden beoordeeld en portefeuilles worden beheerd, te transformeren. Naarmate de technologie zich verder ontwikkelt, moeten ook de tools, kaders en opleiding die beschikbaar zijn voor zowel particuliere als professionele beleggers dat ook doen. Toezichthouders als de AFM en ESMA nemen cruciale stappen om ervoor te zorgen dat innovatie niet sneller gaat dan verantwoordelijkheid. Toekomstig succes bij AI-ondersteund beleggen zal afhangen van het bouwen van systemen die niet alleen krachtig zijn, maar ook transparant, verklaarbaar en afgestemd op de beschermingsnormen voor beleggers. Naarmate AI meer ingebed raakt in financiële diensten, zal een vooruitstrevende aanpak - een combinatie van technologische innovatie met robuust ethisch en regelgevend toezicht - van cruciaal belang zijn om ervoor te zorgen dat deze tools beleggers echt in staat stellen in plaats van hen bloot te stellen aan nieuwe vormen van risico. De toekomst van finance wordt misschien aangedreven door AI, maar moet worden geleid door menselijk oordeel, integriteit en weloverwogen besluitvorming.

RSM is een thought leader op het gebied van Financial Services en International Trade consulting. We bieden frequente inzichten door middel van training en het delen van thought leadership op basis van een gedetailleerde kennis van ontwikkelingen in de branche en praktische toepassingen in de samenwerking met onze klanten. Wilt u meer weten, neem dan contact op met een van onze consultants.