Na drie dagen intense onderhandeling, hebben het Europees Parlement en de Raad van de Europese Unie een voorlopig politiek akkoord bereikt over een serie aan uniforme voorwaarden voor artificiële intelligentie (AI) in de gehele EU. Met dit akkoord van 9 december 2023, dat het Commissievoorstel op verscheidene punten wijzigt, versterkt de EU de wens om te komen tot een mondiale standaard van AI regulering.
Kern wetgeving
De verordening zet in op het risicobeheer van AI, op basis van het credo “des te hoger het risico, des te strenger de regels”. De verordening maakt onderscheid tussen vier risiconiveaus:
- onaanvaardbaar risico;
- hoog risico;
- beperkt risico;
- minimaal risico.
De drie hoogste risiconiveaus krijgen specifieke regels. Bij een onaanvaardbaar risico is het gebruik van AI-technologie grotendeels verboden, met een enkele uitzondering; zie hierna. Zo mag AI, of het gebruik daarvan, bijvoorbeeld geen discriminerend effect hebben. AI-systemen met een hoog risico vormen een mogelijk gevaar voor de fundamentele rechten van personen in de EU, maar kunnen onder de strenge eisen worden toegelaten op de markt. Aanbieders van die systemen moeten vooraf risico’s analyseren, om een afweging te maken voor het gebruik van deze technologie. Bij beperkt risico, voert de verordening voornamelijk lichte transparantieverplichtingen in. Het belang inzake het gebruik van data en de kwaliteit daarvan worden genoemd als belangrijke kenmerken om deze AI gereguleerd maar toegankelijk te houden.
Wijzigingen door EP en Raad aan Commissievoorstel
Het Europees Parlement en de Raad kondigen nu verschillende wijzigingen aan voor het Commissievoorstel. Allereerst zal de AI-verordening dezelfde definitie van artificiële intelligentie hanteren als de OESO in haar Recommendation on Artificial Intelligence. Verder is de verordening niet van toepassing buiten de EU rechtsgebieden, noch van invloed op de bevoegdheden van lidstaten over nationale veiligheid, defensie, of het leger. Ook zijn AI-systemen gevrijwaard wanneer ze enkel voor onderzoek en innovatie worden ingezet.
Verboden toepassingen voor onacceptabele AI
Het akkoord van 9 december breidt het aantal verboden AI toepassingen uit. Deze lijst bestaat uit verboden tot invoer of gebruik van:
- Biometrische categoriseringssystemen met gevoelige factoren (politieke, religieuze, filosofische overtuigingen, seksuele oriëntatie, ras);
- Ongerichte verzameling van gezichtsopnames vanaf het internet of bewakingscamerabeelden om gezichtsherkenningsdatabases uit samen te stellen;
- Emotieherkenning in werk- en onderwijsomgevingen;
- Sociaalkredietsystemen op basis van sociaal gedrag of persoonlijke eigenschappen;
- AI-systemen ter manipulatie van menselijk gedrag;
- AI ingezet ter uitbuiting van menselijke kwetsbaarheid (leeftijd, beperking, sociale of economische situatie).
De verordening laat één uitzondering toe. Handhavingsautoriteiten mogen biometrische identificatiesystemen zeer restrictief inzetten in de openbare ruimte, namelijk voor een specifieke lijst aan strafbare feiten. Bovendien moeten zij hiervoor voorafgaande goedkeuring verkrijgen van de rechterlijke macht.
Verplichtingen voor hoog-risico AI
De specifieke normen voor partijen die hoog-risico GPAI gaan aanbieden, betreffen verplichtingen tot het uitvoeren van modelevaluaties, het in kaart brengen en verminderen van systemische risico’s, het uitvoeren van testen om AI bestendig te maken tegen aanvallen, rapportageverplichtingen aan de Commissie bij serieuze incidenten, verzekeren van cyberveiligheid en rapportageverplichtingen over energie-efficiëntie.
Hiertoe mogen aanbieders van GPAIs hun handelen baseren op best practice documenten. Tevens moeten partijen die hoog-risico AI in de markt gaan zetten daaraan voorafgaand de impact van de AI op fundamentele rechten onderzoeken.
Transparantieverplichtingen voor laag-risico AI
De AI-verordening legt transparantieverplichtingen op aan multi-functionele AI-systemen (general purpose AI, GPAI), en aan modellen waar zij in zijn geïntegreerd. Zo worden ook aanbieders van grote systemen die in staat zijn om gemakkelijk verschillende specifieke taken uit te voeren zoals het creëren van video, tekst, plaatjes, of spraak (zogeheten foundation modellen), verplicht om openheid te geven over hun functionaliteit.
AI-aanbieders kunnen dit bereiken door technische documenten op te stellen in overeenstemming met het EU auteursrecht, met daarin opgenomen gedetailleerde samenvattingen over de gegevens die de AI gebruikt om te leren.
Vier nieuwe EU AI-organen: AI-kantoor, wetenschappelijk panel, AI-raad en adviesforum
Met het voorlopige akkoord zal de AI-verordening drie organen oprichten. Allereerst zal de AI-verordening een specifiek AI-kantoor realiseren binnen de Europese Commissie. Dit kantoor zal dienen ter ondersteuning van de implementatie in lidstaten tezamen met de nationale marktautoriteiten en standaarden en testpraktijken helpen ontwikkelen voor de meest geavanceerde AI-modellen.
Het tweede orgaan zal een panel van onafhankelijke experts zijn, om het AI-kantoor van advies te voorzien over evaluatiemethodologieën voor de mogelijkheden van foundation modellen, over de aanwijzing en opkomst van foundation modellen met een groot effect, en door veiligheidsrisico’s verbonden aan deze modellen te monitoren.
Ten derde versterkt een AI-raad bestaande uit lidstaatsvertegenwoordigers de rol van Lidstaten in de implementatie van de verordening. Deze raad dient als coördinatieplatform en adviseur voor de Commissie. Ten slotte zal een adviesforum technische expertise verlenen aan de AI-raad, bestaande uit vertegenwoordigers van de industrie, MKB, beginnersbedrijven, het maatschappelijk middenveld en universiteiten.
Handhaving
De EP en de Raad kwamen met het akkoord nieuwe administratieve boetes overeen. Deze bedragen zijn na het akkoord nu als volgt:
- € 35 miljoen of 7% van de jaarlijkse omzet voor het gebruik van verboden AI toepassingen,
- € 15 miljoen of 3% voor overtredingen van de verplichtingen, met meer evenredige boetemaxima voor startups en het MKB.
- € 7,5 miljoen of 1,5% voor het verschaffen van onjuiste, onvolledige of misleidende informatie.
Qua privaatrechtelijke handhaving, zal iedere natuurlijke of rechtspersoon een klacht mogen indienen bij de relevante markttoezichtautoriteit. Hiervoor dienen die autoriteiten specifieke klachtenprocedures in te richten.
Vervolgstappen
Dit politieke akkoord heeft nog niet geleid tot een formele wettekst. De Raad en het EP schrijven de komende weken meer juridisch-technische details van de Verordening uit om tot een gezamenlijke tekst te komen. Voorafgaand aan ondertekening, zal nog een laatste juridisch- en taal-technische controle uitgevoerd worden. De meeste normen zullen twee jaar na de inwerkingtredingsdatum van kracht gaan.
Decentrale relevantie
De AI-verordening is rechtstreeks toepasselijk en zal gevolgen hebben voor alle gebruikers van AI, dus ook voor decentrale overheden. Zij kunnen de klachtprocedure gebruiken. Bovendien geven de nu gewijzigde voorwaarden aan dat overheidsgebruikers van een hoog-risico AI-systeem verplicht zullen zijn om zich in de EU database voor hoog-risico AI te registreren.
Bronnen
Europees Parlement, Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI, 9 december 2023.
Raad van de Europese Unie, Artificial intelligence Act: Council and Parliament strike a deal on the first rules for AI in the world, 9 december 2023.
Europese Commissie, Commission welcomes political agreement on Artificial Intelligence Act, 9 december 2023 (geüpdatet op 10 december 2023).
Meer informatie
Tijdlijn Digitalisering
Dossierthema artificiële intelligentie