Ga naar de inhoud
AI-Verordening


De Europese Unie (EU) heeft een allesomvattende verordening inzake artificial intelligence / kunstmatige intelligentie (AI) aangenomen, de AI-Verordening. Op 12 juli 2024 is de definitieve tekst van de AI-Verordening in het Publicatieblad van de EU gepubliceerd. Per 1 augustus 2024 treedt de AI-Verordening in werking. De AI-Verordening heeft tot doel innovatie te bevorderen, betrouwbaarheid te garanderen en grondrechten te beschermen. De AI-Verordening bevat geharmoniseerde regels voor de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen in de EU volgens een evenredige (zogenaamde) risicogebaseerde aanpak. De AI-Verordening is ook relevant voor partijen uit landen buiten de EU van wie het AI-systeem van invloed kan zijn op de EU-markt. In een eerdere blog over de AI-Verordening gingen wij reeds in op de achtergrond en totstandkoming van de toen nog voorwaardelijk geaccepteerde wettekst. In deze blog gaan onze AI-advocaat Max Schwillens en Compliance-advocaat Sander van Someren Gréve nader in op de belangrijkste onderdelen van de AI-Verordening die dus per 1 augustus 2024 in werking zal treden.

AI-systemen en risicogebaseerde aanpak

De AI-Verordening definieert AI-systemen in artikel 3 als een machinaal systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.

De AI-Verordening past een risicogebaseerde aanpak toe op AI-systemen, waarbij onderscheid wordt gemaakt tussen vier (risico)categorieën van AI-praktijken: (i) verboden, (ii) hoog risico, (iii) beperkt risico en (iv) minimaal risico.

Verboden AI-systemen en AI-praktijken

Artikel 5 van de AI-Verordening behandelt en benoemt de verboden AI-praktijken. Deze worden geacht in strijd te zijn met de waarden en grondrechten van de EU. De AI-Verordening beoogt dat AI-systemen worden ontwikkeld en gebruikt in overeenstemming [MS1] met de beginselen van technische robuustheid en veiligheid, privacy en datagovernance, transparantie, diversiteit, non-discriminatie, rechtvaardigheid en sociaal en ecologisch welzijn. In dit kader zijn (onder meer) manipulatieve AI-systemen die menselijk gedrag verstoren, AI-systemen die kwetsbaarheden uitbuiten en realtime biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimten voor rechtshandhaving verboden. Uitzonderingen daargelaten. De AI-verordening verbiedt ook het gebruik van subliminale technieken waarvan personen zich niet bewust zijn of emotieherkenning in AI-systemen, tenzij deze worden gebruikt voor gezondheids- of onderzoeksdoeleinden en met passende waarborgen.

AI-systemen met een hoog risico

De AI-Verordening regelt in hoofdstuk 3, vanaf artikel 6, de AI-systemen met een hoog risico en stelt daartoe een classificatiesysteem op. Een AI-systeem wordt als een systeem met een hoog risico beschouwd wanneer deze is bedoeld om te worden gebruikt als veiligheidscomponent in een product of deze onder een bepaalde productcategorie valt en voor dat AI-systeem of product een conformiteitsbeoordeling moet worden uitgevoerd door een derde partij voordat het in de handel mag worden gebracht. Verder zijn AI-systemen een hoog-risico systeem als hun beoogde gebruik is gelegen in bepaalde gebieden of sectoren, zoals biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten, wetshandhaving, migratie, asiel, grenscontrolebeheer, rechtsbedeling en democratische processen.

Aanbieders van AI-systemen met een hoog risico moeten voldoen aan de eisen in afdeling 2 van hoofdstuk 3 van de AI-Verordening. Zo moet onder meer een systeem voor risicobeheer worden vastgesteld, uitgevoerd, gedocumenteerd en in stand worden gehouden. Verder worden eisen gesteld op het gebied van technische documentatie, transparantie, menselijk toezicht en cyberbeveiliging. Opvallend is ook de plicht dat aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico niet in overeenstemming is met de AI-Verordening, zij onmiddellijk de nodige corrigerende maatregelen dienen te nemen om dat systeem in overeenstemming te brengen, uit de handel te nemen, te deactiveren of terug te roepen. Bovendien moeten aanbieders van AI-systemen met een hoog risico voorzien in een systeem voor kwaliteitsbeheer dat de naleving van de AI-Verordening waarborgt, waarbij zij ervoor dienen te zorgen dat de AI-systemen worden gebruikt in overeenstemming met de instructies en het beoogde doel, en dat het gebruik wordt gemonitord en geëvalueerd.

Voordat een AI-systeem met een hoog risico in gebruik wordt genomen, dient ook nog een beoordeling te worden uitgevoerd van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren. In dit kader zijn wel uitzonderingen mogelijk. 

AI-systemen met een beperkt risico of minimaal of geen risico

De AI-Verordening kent voor AI-systemen met lagere risico classificaties minder strenge eisen. Zo introduceert de AI-Verordening bepaalde transparantieverplichtingen voor AI-systemen die interageren met natuurlijke personen of inhoud genereren. Hierbij moet duidelijke informatie worden verstrekt wanneer personen werken met een AI-systeem of worden blootgesteld aan inhoud die is gegenereerd of gemanipuleerd door een AI-systeem. De verordening vereist ook dat gebruikers van AI-systemen die inhoud genereren of manipuleren passende maatregelen nemen om de verspreiding van misleidende informatie te voorkomen.

Conformiteitsbeoordelingen en CE-markering

De AI-Verordening kent een uitgebreid systeem ter zake de conformiteitsbeoordeling voor AI-systemen met een hoog risico. Dat kan bestaan uit zelfbeoordeling door de aanbieder of beoordeling door een derde partij, aangemelde instantie, afhankelijk van het type en het gebruik van het AI-systeem. De verordening introduceert een CE-markering voor AI-systemen met een hoog risico die aan de eisen voldoen, en een EU-databank voor bepaalde AI-systemen met een hoog risico die zijn opgenomen in bijlage III van de AI-Verordening.

Toezicht en handhaving

Op basis van de AI-Verordening moeten de EU-lidstaten nationale bevoegde autoriteiten aanwijzen die toezicht houden op de toepassing van de AI-Verordening. De markttoezichtautoriteiten moeten hun bevoegdheden onafhankelijk, onpartijdig en onbevooroordeeld kunnen uitoefenen en de EU-lidstaten zijn verplicht om ervoor te zorgen dat deze autoriteiten over voldoende middelen, deskundigheid en bevoegdheden beschikken. De AI-Verordening geeft markttoezichtautoriteiten ook de bevoegdheid om de verordening te handhaven en onderzoek te doen naar en maatregelen te nemen tegen AI-systemen die niet aan de eisen voldoen. Hieronder vallen het geven van waarschuwingen, het opleggen van corrigerende maatregelen of het uit de handel nemen van producten.

Niet-naleving kan vergaande gevolgen hebben, zoals boetes die kunnen oplopen tot EUR 35 miljoen of 7% van de totale wereldwijde jaarlijkse omzet. Alleen al het verstrekken van onjuiste, onvolledige of misleidende informatie aan nationale bevoegde autoriteiten in antwoord op een verzoek kan bestraft worden met administratieve boetes tot EUR 7,5 miljoen of 1% van de totale wereldwijde jaaromzet in het voorafgaande boekjaar, indien dat bedrag hoger is. Vergaande gevolgen dus, terwijl de AI-Verordening al op 1 augustus 2024 in werking zal treden.

Advocatenkantoor gespecialiseerd in AI

MAAK Advocaten is een gespecialiseerd advocatenkantoor in Amsterdam met een focus op bedrijven binnen de sector maakindustrie. Onze advocaten zijn specialisten op het gebied van (EU) productregelgeving en CE-markering en adviseren zowel Nederlandse als internationaal opererende maakbedrijven zoals toeleveranciers, fabrikanten, gemachtigden importeurs, distributeurs en groothandelaren.

Wilt u juridisch advies inwinnen over de mogelijke gevolgen voor uw onderneming van de AI-Verordening of andere geldende en toepasselijke EU productwet- en regelgeving, geharmoniseerde normen of nationale regels? Of heeft uw bedrijf behoefte aan ondersteuning bij een geschil met een handelsrelatie, een toezichthouder of gerelateerde vraagstukken? Neem dan contact op met een van onze advocaten, productregelgeving en CE-markering in Amsterdam.  

Max Schwillens

Max Schwillens

Als advocaat Product Compliance en Commerciële Contracten heeft Max Schwillens een sterke reputatie opgebouwd op het terrein van Geschillen en Procedures, Contractenrecht en Product Compliance. Max is een gespecialiseerde advocaat voor juridisch advies over productregelgeving. Hij heeft een ruime ervaring in opstellen en beoordelen van contracten voor de maakindustrie en het voeren van procedures tussen marktdeelnemers. Hij voert geschillen bij de civiele rechter, in arbitrage en mediation. Max is vaker spreker op landelijke congressen op het snijvlak van productregelgeving en contracten.