Europees recht en beleid

Laatste update: 3 juni 2024

Contact: en


Wat is Artificial Intelligence?

Artificial Intelligence (ook wel Kunstmatige Intelligentie; AI) is een verzameling technologieën die data, algoritmen en rekenkracht combineren. AI-technologieën kunnen helpen bij het vinden van tal van oplossingen voor maatschappelijke problemen. Ook voor decentrale overheden kan het gebruik van kunstmatige intelligentie voordelen bieden. Door slim gebruik te maken van AI bij onder andere infrastructuur, afval en toezicht, kunnen steden efficiënter en duurzamer worden ingericht. Zo kan AI worden ingezet bij het effectiever regelen van verkeersstromen.

Er zit potentie in de ontwikkeling en toepassing van AI-technologieën, maar het gebruik ervan brengt ook uitdagingen met zich mee. AI kan namelijk gevolgen hebben voor een groot aantal grondrechten. De meeste AI-technologieën maken gebruik van machine learning, wat ervoor zorgt dat de technologie in staat is om op basis van analyses en data zichzelf te ontwikkelen. AI-technologieën hebben dus geen menselijk handelen nodig om beslissingen te nemen. De inzet van Kunstmatige Intelligentie kan echter wel leiden tot vormen van discriminatie, schending van privacy en persoonsgegevens of inbreuk op sommige vrijheden. Een AI-systeem kan bijvoorbeeld mensen filteren bij sollicitatieprocedures. Daarom zijn er Europese en nationale strategisch kaders gevormd om mensen en hun grondrechten te beschermen.

Europees beleid voor Artificial Intelligence

Het Europese beleid over Artificial Intelligence is vastgelegd in verschillende actieplannen, richtsnoeren en voorgestelde wet- en regelgeving. Zo is de Europese benadering met betrekking tot AI beschreven in een Witboek. Hierin heeft de Commissie uiteengezet welke maatregelen het wil nemen voor het bevorderen van samenwerking en onderzoek naar AI tussen lidstaten. Verder zijn er ethische richtsnoeren voor Kunstmatige Intelligentie geformuleerd en heeft de Commissie in april 2021 een voorstel gedaan voor een nieuwe verordening voor AI. Dit zal hieronder verder worden uitgediept.

Ethische richtsnoeren voor Artificial Intelligence

Naar aanleiding van de Europese AI-strategie heeft de Europese Commissie in 2019 ethische richtsnoeren voor betrouwbare AI gelanceerd. Hierin heeft de Commissie vastgesteld dat betrouwbare Kunstmatige Intelligentie bestaat uit drie componenten, waaraan gedurende de volledige levenscyclus van het systeem moet worden voldaan:

  1. De AI moet wettig zijn, door te voldoen aan alle toepasselijke wet- en regelgeving;
  2. De AI moet ethisch zijn, door naleving van ethische beginselen en waarden te waarborgen;
  3. De AI moet robuust zijn uit zowel technisch als sociaal oogpunt, aangezien AI-systemen ongewild schade kunnen aanrichten, zelfs al zijn de bedoelingen goed.

Bevorderen van samenwerking en onderzoek

Daarnaast heeft de Commissie in februari 2020 een Witboek gepresenteerd waarin de Europese benadering met betrekking tot Kunstmatige Intelligentie is beschreven. In het Witboek staat hoe Europa aankijkt tegen de ontwikkeling van kunstmatige intelligentie. Hierin worden beleidsopties uiteengezet om zowel ontwikkeling van AI te stimuleren, als de risico’s van AI aan te pakken.

Artificial Intelligence verordening

In april 2021 heeft de Commissie een voorstel gedaan voor een nieuwe verordening voor AI, omdat de huidige Europese regelgeving de (toekomstige) risico’s van AI onvoldoende adresseert. Deze verordening heeft een op risico gebaseerde aanpak; dus hoe meer risico de technologie met zich meebrengt, hoe strikter de regels die ervoor gelden.

Er wordt hierbij onderscheid gemaakt tussen vier AI-systemen:

  1. Onaanvaardbaar risico
    Het voorstel verbiedt een aantal AI-systemen die in strijd zijn met de EU-waarden omdat het gebruik ervan fundamentele rechten schendt. Hierbij gaat het bijvoorbeeld om het gebruik van social scoring door overheden. Social scoring houdt in dat burgers een bepaalde score krijgen op basis van hun gedrag. Je krijgt minpunten als je je niet aan de regels houdt, bijvoorbeeld wanneer je door rood rijdt, en bonuspunten als je iets goeds doet, zoals vrijwilligerswerk. Verder is biometrische identificatie (gezichtsherkenning) in openbare ruimten in principe verboden, maar in sommige gevallen kan het onder categorie 2 vallen.
  2. Hoog risico
    AI-systemen met een hoog risico kunnen een bedreiging vormen voor de gezondheid, veiligheid of grondrechten van personen. Denk hierbij aan systemen die mensen selecteren bij sollicitatieprocedures en de toegang van burgers tot sociale zekerheid bepalen. Deze AI-systemen moeten aan strikte eisen voldoen en moeten eerst worden beoordeeld voordat de techniek in de EU mag worden gebruikt. 
  3. Beperkt risico
    Een voorbeeld van een AI-systeem met een beperkt risico is een chatbot. Er moet hierbij rekening gehouden worden met de risico’s die kunnen ontstaan en voor deze systemen geldt een transparantieverplichting. Mensen moeten worden geïnformeerd als ze met een AI-systeem met beperkt risico in contact zijn.
  4. Minimaal risico
    Deze AI-systemen kunnen volgens bestaande wetgeving worden ontwikkeld en gebruikt. In de voorgestelde verordening worden er geen aanvullende eisen aan gesteld. Voorbeelden van AI-systemen met een minimaal risico zijn spamfilters en zoekmachines.

Tegelijkertijd heeft de Commissie ter bevordering van de Europese aanpak van AI bij de voorgestelde verordening ook een communicatie en een nieuw gecoördineerd plan gepubliceerd. In dit gecoördineerde plan wordt onder vier hoofdvoorstellen een reeks acties voorgesteld om de EU een leidende rol te laten spelen op het gebied van betrouwbare AI. Zo wordt er gepleit voor het versnellen van investeringen in AI-technologieën om een economisch en sociaal herstel te stimuleren door de invoering van digitale oplossingen. De Commissie wil de uiteengezette acties ook financieel ondersteunen. Hiervoor staan de fondsen uit de Digitaal Europa en Horizon Europaprogramma’s ter beschikking. Ook wordt minstens 20% van de middelen uit de faciliteit voor herstel en veerkracht ingezet voor digitale investeringen.

Hoe zit het met toezicht op de Europese AI verordening?  

In het Europese voorstel wordt ook gesproken over toezicht op de toepassing en naleving van de verordening. Elke lidstaat moet één of meerdere nationale bevoegde autoriteiten aanwijzen die verantwoordelijk is voor het toezicht op de verordening in algemene zin. Daarnaast moeten er ook toezichthouders komen, afhankelijk van de sector waar een AI-systeem in gebruik wordt genomen. Als een AI-systeem voor rechtshandhaving wordt gebruikt, zal het toezicht moeten liggen bij de nationale autoriteit voor gegevensbescherming of een soortgelijke autoriteit. Op Europees niveau wordt het bestaande toezicht uitgebreid door een European Artificial Intelligence Board in het leven te roepen. Deze raad bestaat uit vertegenwoordigers van de lidstaten en de Commissie, en zal verantwoordelijk worden voor een aantal adviestaken. Ook zal het de Commissie bijstaan bij specifieke vragen over AI.

Wat is de stand van zaken?

Op 9 december 2023 hebben het Europees Parlement en de Raad van de EU een voorlopig politiek akkoord bereikt over de AI verordening. De Raad en het Parlement werken nog aan de formele wettekst voordat de verordening door beide instanties wordt aangenomen. Zodra de AI verordening is vastgesteld, zullen lidstaten de verordening in eigen land gaan doorvoeren. De meeste normen zullen twee jaar na de inwerkingtredingsdatum van kracht gaan.

AI Aansprakelijkheidsrichtlijn

De Europese Commissie heeft op 28 september 2022 een voorstel gedaan voor een artificiële intelligentie aansprakelijkheidsrichtlijn. De richtlijn bevat specifieke regels over aansprakelijkheid in geval van schade die ontstaat bij het gebruik van AI-producten of -diensten. Deze regels beogen de rechtsbescherming van consumenten te verhogen en meer vertrouwen te kweken in AI.

De voorgestelde richtlijn bevat een aantal hoofdlijnen:

  • Slachtoffers van AI-gerelateerde schade moeten deze makkelijker vergoed kunnen krijgen. Hierbij moet hetzelfde beschermingsniveau gelden voor andere productaansprakelijkheidsregimes.
  • De Commissie stelt een weerlegbaar ‘vermoeden van causaliteit’ voor. Een vermoeden van causaliteit houdt in dat benadeelden makkelijker kunnen bewijzen dat de schade direct het gevolg is van een AI-product of AI-dienst. Dit zal de bewijslast voor slachtoffers van schade door een AI-systeem verlichten.
  • Nationale rechtbanken krijgen de bevoegdheid om aanbieders van AI-diensten en -systemen de opdracht te geven om bewijsmateriaal over die systemen met een hoog risico openbaar te maken, als het vermoeden bestaat dat deze schade hebben veroorzaakt.

Nederlands beleid voor Artificial Intelligence

Er zijn op dit moment in Nederland geen wetten die AI-toepassingen reguleren. Dat betekent niet dat er helemaal geen regels zijn. Kunstmatige Intelligentie zit ook in producten, diensten en processen die al wel gereguleerd zijn. Denk bijvoorbeeld aan de bescherming van persoonsgegevens die is gereguleerd in de Algemene Verordening Gegevensbescherming (AVG). De benoeming van AI in sectorale wetgeving wil alleen niet zeggen dat het algemene regelgevend kader voldoende voorbereid is op de inzet van AI. Er zijn dus nieuwe regels en instrumenten nodig om de ontwikkeling en het gebruik van AI in Nederland in goede banen te leiden. 

In 2019 heeft de Rijksoverheid een Strategisch Actieplan voor Artificiële Intelligentie gepubliceerd waarin het haar plannen voor de toekomst van AI in Nederland uiteen zette. In een bijgaande Kamerbrief over AI, publieke waarden en mensenrechten gaat het kabinet in op de kansen en risico’s van AI-toepassingen, maar ook op het bestaande algemene beleid waarin AI voorkomt. Het gaat hierbij vooral over zelfregulering van AI vanuit de markt en het onderhouden van een dialoog tussen de overheid, burgers, en het bedrijfsleven.

Het kabinet heeft in een andere Kamerbrief uitgesproken dat de bestaande regelgeving inderdaad onvoldoende toegespitst is op AI om de risico’s ervan voldoende te beperken. Er moeten volgens het kabinet aanvullende waarborgen ingesteld worden. Daarom heeft de overheid richtsnoeren opgesteld voor het toepassen van algoritmes en data-analyses door overheidsinstanties. Ook is er een Toolbox Ethisch Verantwoorde Innovatie ontwikkeld door het ministerie van BZK. Deze helpt bestuurders van (decentrale) overheden op weg in wat er nodig is voor ethisch verantwoorde innovatie; en met respect voor belangrijke publieke waarden en grondrechten.

Naast deze ontwikkelingen wil de overheid ook toewerken naar het opnemen van AI in wetgeving. Hiermee kan het toezicht en de handhaving van het gebruik van AI worden versterkt. Als de Europese verordening omtrent Kunstmatige Intelligentie wordt aangenomen zal Nederland de bepalingen moeten doorvoeren in nationale wet- en regelgeving. Het is op dit moment nog niet duidelijk wanneer dit zal zijn.

Wat betekent Artificial Intelligence voor mijn gemeente, provincie of waterschap?  

Ook voor decentrale overheden kan het gebruik van Kunstmatige Intelligentie voordelen bieden. Door slim gebruik te maken van AI bij onder andere infrastructuur, afval en toezicht, kunnen steden bijvoorbeeld efficiënter en duurzamer ingericht worden. Ook binnen de waterschapsector liggen kansen, zoals bij rioolwaterzuiveringsinstallaties (RWZI’s). In deze praktijkvraag leest u meer over hoe een waterschap AI kan inzetten.

Enkele voordelen van AI voor decentrale overheden zijn: 

  • Versnelde beslissingen dankzij betere gegevens;
  • Automatisering van arbeidsintensieve manuele processen;
  • Nauwkeurigere prognoses;
  • Creatie van nieuwe bedrijfsmodellen op basis van gegevens.

Om decentrale overheden te ondersteunen bij de bouw van betrouwbare zelflerende algoritmes zijn er meerdere  AI Impact Assessments (AIIA) beschikbaar. Op basis van een AIIA kan een organisatie zelf het ethische kader bepalen en verantwoording afleggen over betrouwbaarheid, veiligheid en transparantie. Zo kunnen decentrale overheden grip krijgen en behouden op de systemen die voortkomen uit AI.

Wat het voorstel voor een Europese AI-verordening precies inhoudt voor decentrale overheden is nog niet bekend. Ook is het nog onduidelijk wat de Nederlandse plannen concreet zijn op het gebied van AI-wetgeving.