Ga naar de inhoud

Product compliance

blokje-maak

Voorstel voor een Richtlijn AI-aansprakelijkheid

Inhoudsopgave

De ontwikkelingen op het gebied van artificiële intelligentie (AI) of kunstmatige intelligentie volgen elkaar razendsnel op. AI-technologie en toepassingen bestaan al decennia, maar de laatste jaren is de ontwikkeling mede door generatieve AI-systemen zoals ChatGPT, Gemini (eerder Google Bard) en DALL-E ook bij een breder publiek onder de aandacht gekomen. In de maakindustrie worden AI-toepassingen en machine learning door fabrikanten, (toe)leveranciers, logistieke dienstverleners en detailhandelaren al op grote schaal ingezet. Hierbij gaat het bijvoorbeeld om kostenbesparende AI-oplossingen en voorspellingen voor energie-efficiëntie, robotprogrammering, reparaties, industriële robots en het voorspellen van trends in klantgedrag en de vraag naar producten.

De uiteenlopende toepassingen van AI-systemen in verschillende sectoren in de maakindustrie en de snelle ontwikkelingen roepen vragen op over de gevolgen van het gebruik, mogelijke schade en (civielrechtelijke) aansprakelijkheid. Hierdoor is de Europese Commissie al sinds 2018 bezig met het ontwikkelen van een nieuw regelgevend kader voor AI-systemen. In een eerdere blogreeks bespraken onze advocaten productregelgeving & CE-markering in Amsterdam al het voorstel voor de AI-verordening, de hieruit voortvloeiende wettelijke voorschriften en verplichtingen voor marktdeelnemers en de herziening van de Europese regelgeving over productaansprakelijkheid.

In aanvulling hierop heeft de Europese Commissie op 28 september 2022 een concepttekst gepubliceerd van het  Voorstel voor een richtlijn over niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (Richtlijn AI-aansprakelijkheid). In deze blog wordt nader ingegaan op de betekenis hiervan voor vorderingen op grond van aansprakelijkheid voor schade die is veroorzaakt door op AI gebaseerde producten en diensten.

Achtergrond en doelingstellingen van de richtlijn ai-aansprakelijkheid

Naast de voordelen van AI-toepassingen voor bijvoorbeeld technologische vooruitgang en nieuwe bedrijfsmodellen in verschillende sectoren van de digitale economie, brengt het autonome gedrag en de zelflerende aard van AI-systemen ook nieuwe risico’s en uitdagingen met zich mee.

De AI-verordening en EU-wetgeving voor specifieke producten bieden voorschriften om de risico’s voor de veiligheid en de grondrechten te beperken en schade door AI-systemen te voorkomen. Maar in deze voorschriften wordt niet voorzien in de vergoeding van schade die is veroorzaakt door output van een AI-systeem of het verzuim door een AI-systeem om output te genereren.

Daarnaast zijn bestaande (nationale) civielrechtelijke aansprakelijkheidsregels voor menselijke handelingen, producten of andere technologieën vaak niet toereikend om de autonomie, ondoorzichtigheid en complexiteit van AI-systemen af te dekken. Het kan bijvoorbeeld erg ingewikkeld zijn om aan te tonen dat een specifieke input van een potentieel aansprakelijk persoon, een specifieke output van een AI-systeem heeft veroorzaakt die tot schade heeft geleid.

Het is ook onzeker hoe de bestaande aansprakelijkheidsregels aan de specifieke kenmerken van AI-systemen zouden worden aangepast en in individuele gevallen worden toegepast. Dit kan leiden tot rechtsonzekerheid en juridische versnippering tussen de EU-lidstaten.

De achtergrond en doelstellingen van de Richtlijn AI-aansprakelijkheid hebben onder meer betrekking op het voorkomen van compensatielacunes voor gevalleen waarin AI-systemen worden gebruikt, het vergroten van de rechtszekerheid en het creëren van een gelijk speelveld voor fabrikanten van binnen en buiten de EU. Bedrijven en personen die vergoeding vorderen van schade die door een AI-systeem is ontstaan, moeten zo een gelijkwaardig beschermingsniveau genieten als voor schade die door andere technologie is veroorzaakt

De Richtlijn AI-aansprakelijkheid beoogt daarnaast de bestaande regels voor niet-contractuele civielrechtelijke aansprakelijkheid te moderniseren en aan te passen aan de unieke kenmerken van AI-systemen. Hiermee wordt geprobeerd om zowel een hoog beschermingsniveau voor bedrijven en particulieren te garanderen als de innovatie in de AI-sector te bevorderen.

Wat zijn de belangrijkste kenmerken van de richtlijn ai-aansprakelijkheid?

Onze advocaten krijgen regelmatig de vraag: wat zijn de belangrijkste kenmerken van de Richtlijn AI-aansprakelijkheid? Samengevat maakt deze richtlijn het makkelijker om bewijs te leveren door regels te introduceren voor het openbaar maken van bewijsmateriaal en weerlegbare vermoedens.

Openbaarmaking van bewijs

Om een schadeclaim te kunnen vaststellen of onderbouwen, is het belangrijk om toegang te hebben tot informatie over het AI-systeem dat mogelijk schade heeft veroorzaakt. De Richtlijn AI-aansprakelijkheid maakt het mogelijk om de rechter te verzoeken om een aanbieder of gebruiker van een AI-systeem te verplichten om relevant bewijsmateriaal openbaar te maken. Dit kan zelfs voordat een schadeclaim wordt ingediend. De rechter kan een aanbieder of gebruiker ook verplichten om bewijsmateriaal te bewaren.

Hiervoor gelden wel enkele voorwaarden. Zo geldt de regeling alleen voor AI-systemen met een hoog risico. Voor deze systemen bestaan namelijk specifieke verplichtingen op het gebied van de documentatie, registratie en informatie. Verder moet de mogelijke eiser genoeg feiten en informatie aanleveren om de rechter te overtuigen van de geloofwaardigheid van de vordering. Daarnaast moet de aanbieder of gebruiker van het AI-systeem wel beschikken over het bewijs of er toegang tot hebben en moet deze eerst de kans krijgen om het bewijs vrijwillig openbaar te maken. 

De rechter kan alleen opdracht geven tot openbaarmaking van de gevraagde informatie als dit nodig en redelijk is om de vordering te onderbouwen. Hierdoor worden te algemene verzoeken voorkomen en worden ook de legitieme belangen van de aanbieder of gebruiker beschermd, bijvoorbeeld als het gaat om bedrijfsgeheimen of vertrouwelijke informatie. De rechter kan hierbij ook maatregelen nemen om de vertrouwelijkheid te waarborgen. Tot slot heeft de aanbieder of gebruiker de mogelijkheid om rechtsmiddelen in te stellen tegen een bevel tot openbaarmaking of bewaring van bewijs.

Weerlegbaar vermoeden van niet-nakoming

De Richtlijn AI-aansprakelijkheid introduceert daarnaast een weerlegbaar vermoeden van niet-nakoming. Dit vermoeden ontstaat als een aanbieder of gebruiker van een AI-systeem niet voldoet aan een beval om bewijsmateriaal openbaar te maken of te bewaren. De rechter gaat er dan vanuit dat de aanbieder of gebruiker haar zorgvuldigheidsplicht tegenover de eiser heeft geschonden.

De aanbieder of gebruiker heeft het recht om dit vermoeden te weerleggen. Het doel van deze maatregel is om de openbaarmaking van bewijs te stimuleren en juridische procedures sneller te laten verlopen.

Weerlegbaar vermoeden van causaal verband bij schuld

De Richtlijn AI-aansprakelijkheid stelt ook een weerlegbaar vermoeden in dat er een causaal verband is tussen de schuld van een aanbieder of gebruiker van een AI-systeem en de schade veroorzaakt door de output van dat systeem. Dit maakt het voor een benadeelde makkelijker om schade te vorderen.

Als een benadeelde kan aantonen dat een aanbieder of gebruiker van een AI-systeem een fout heeft gemaakt door een verplichting te schenden en er een oorzakelijk verband bestaat met output van het AI-systeem, kan de rechter aannemen dat deze fout de schade heeft veroorzaakt.

De benadeelde moet bewijzen dat de aanbieder of gebruiker een fout heeft gemaakt, bijvoorbeeld door het schenden van een zorgvuldigheidsplicht uit de AI-verordening. Daarnaast geldt het vermoeden van causaal verband alleen als het waarschijnlijk is dat de fout de output van het AI-systeem heeft beïnvloed. Ook moet de benadeelde bewijzen dat de output van het AI-systeem (of het ontbreken daarvan) de schade heeft veroorzaakt.

De verweerder kan dit vermoeden weerleggen. De verweerder kan bijvoorbeeld aantonen dat de schade door een andere oorzaak is ontstaan.

Status van het voorstel voor een richtlijn ai-aansprakelijkheid

Het is inmiddels meer dan twee jaar geleden dat het voorstel voor een Richtlijn AI-aansprakelijkheid is gepubliceerd. Sindsdien wordt het voorstel besproken in het Europees Parlement en de Raad. Op 14 december 2023 bereikten zij een informeel akkoord over de tekst, maar verdere stappen laten nog op zich wachten.

Doordat de Richtlijn AI-aansprakelijkheid samenhangt met de AI-verordening en de herziene Richtlijn productaansprakelijkheid, zijn ook de ontwikkelingen bij deze wetgeving relevant. Tijdens het wetgevingsproces van de AI-verordening is er bijvoorbeeld veel onderhandeld over de definitie van een AI-systeem en de classificatie van AI-systemen als hoog risico. Deze kernbegrippen zijn uiteindelijk aanzienlijk aangepast. Daarnaast geldt de Richtlijn productaansprakelijkheid nu ook voor software en bevat deze regels over bijvoorbeeld schade door dataverlies.

Door deze ontwikkelingen heeft de Raad aanvullende vragen gesteld aan de EU-lidstaten. Daarnaast heeft het Europees Parlement een effectenbeoordeling laten uitvoeren van de huidige tekst van de Richtlijn AI-aansprakelijkheid. Deze beoordeling is op 19 september 2024 gepubliceerd. Hierin wordt onder andere voorgesteld om:

  • de richtlijn te vervangen door een verordening, zodat de regels rechtstreeks in alle EU-lidstaten gelden en marktversnippering wordt voorkomen;
  • de reikwijdte uit te breiden van AI naar alle software;
  • ook AI-systemen voor algemene doeleinden en andere AI-systemen met een grote impact onder de regels te laten vallen;
  • een gemengd aansprakelijkheidskader te introduceren waarin schuld- en risicoaansprakelijkheid in balans zijn.

Door de kritiek is de toekomst van de Richtlijn AI-aansprakelijkheid onzeker. Er is nog steeds behoefte aan regels hierover, maar de vraag is in welke vorm deze uiteindelijk worden ingevoerd. De verwachting is dat er begin 2025 meer duidelijkheid komt over de status van het voorstel voor een Richtlijn AI-aansprakelijkheid en de mogelijke vervolgstappen.

Juridisch advies van een advocaat gespecialiseerd in artificiële intelligentie

Zoekt u juridisch advies van een advocaat gespecialiseerd in artificiële intelligentie of gerelateerde onderwerpen? MAAK Advocaten beschikt over een ervaren team van advocaten gespecialiseerd in vraagstukken over (EU) productregelgeving en CE-markering en met een sterke focus op de spelers in de maakindustrie.

Onze advocaten in Amsterdam adviseren u graag over de status en de mogelijke gevolgen voor uw onderneming van het voorstel voor een Richtlijn AI-aansprakelijkheid of andere geldende en toepasselijke EU productwet- en regelgeving, geharmoniseerde normen of nationale regels. Ook kunnen onze advocaten productregelgeving en CE-markering uw maakbedrijf ondersteunen bij het opstellen van commerciële contracten met andere marktdeelnemers of bij een geschil met een handelsrelatie, een toezichthouder of gerelateerde vraagstukken.

Heeft u een juridische vraag, dan kunnen onze advocaten in Amsterdam u van dienst zijn. Uw belang staat bij ons te allen tijde voorop en we zoeken graag naar praktische oplossingen en snel resultaat. Neem contact op met onze specialist contractenrecht in Amsterdam en ontdek uw mogelijkheden. Wanneer u juridisch advies wilt inwinnen, dan biedt ons kantoor daartoe mogelijkheden. Wij zijn in heel Nederland actief en bieden ook support bij internationale vraagstukken. We hebben een sterk team van advocaten met als specialisatie contractenrecht. Onze advocaat commercial law Remko Roosjen geeft leiding aan dit team. Bent u op zoek naar andere praktijkgebieden, dan kunnen onze advocaten in Amsterdam u mogelijk ook ondersteunen of aan een geschikte partner doorverwijzen.

+31 (0)20 – 210 31 38
mail@maakadvocaten.nl

De informatie op deze pagina vormt geen juridisch advies. Er wordt geen aansprakelijkheid geaccepteerd.
Voor advies, neem contact op met ons kantoor.

Advocaat Product Compliance en Commerciële Contracten - Max Schwillens

NIEUWS & ARTIKELEN