
Nieuwe AI-verordening voor algemene AI-modellen
Daniël de Weerd schreef een artikel in Computerrecht over de nieuwe Europese AI-verordening en hoe deze omgaat met “AI-modellen voor algemene doeleinden”, oftewel het type AI-modellen achter ChatGPT, Gemini en Claude. Deze verordening is recent in werking getreden, maar roept nog een hoop vragen op.
Ontwikkeling AI
In het artikel bespreekt hij eerst hoe AI zich heeft ontwikkeld: van simpele op regels gebaseerde systemen naar de huidige generatie AI die flexibel tekst, beelden en video kan genereren. Een model wordt gezien als “general-purpose” wanneer het veel verschillende taken kan uitvoeren en in veel verschillende toepassingen kan worden gebruikt. Denk bijvoorbeeld aan het model achter ChatGPT dat teksten kan redigeren, broncode kan schrijven en afbeeldingen kan maken.
Strengere regels voor geavanceerde AI
De AI-verordening reguleert verschillende soorten AI-toepassingen met als doel om innovatie te bevorderen en Europeanen te beschermen tegen mogelijk schadelijke effecten van AI. Voor de meest geavanceerde modellen gelden extra strenge regels. Deze modellen hebben volgens de wet “systeemrisico’s” – risico’s die de hele samenleving kunnen raken. Aanbieders van dit soort modellen moeten deze risico’s beoordelen en beperken. Hierbij valt op dat de concept-praktijkcode voor dergelijke modellen, waarover op dit moment nog wordt onderhandeld, zich voornamelijk richt op grootschalige risico’s m.b.t. cyberaanvallen, massavernietigingswapens en verlies van controle over geavanceerde modellen. De praktijkcode laat meer alledaagse risico’s, zoals bias of het verzinnen van feiten door AI, buiten beschouwing.
Verboden toepassingen en verantwoordelijkheid
Tot slot bespreekt Daniël nog de vraag in hoeverre art. 5 AI-verordening (verboden AI-toepassingen) van toepassing is op systemen die door een GPAI-model worden aangedreven, zoals bijvoorbeeld AI-chatbots. Omdat dit soort systemen een groot aantal toepassingen hebben, kunnen ze ook – in theorie – voor verboden toepassingen worden gebruikt. Een GPAI-systeem kan bijvoorbeeld worden misbruikt om mensen te misleiden of manipuleren. Volgens richtlijnen van de Europese Commissie zijn aanbieders van dergelijke systemen verplicht om maatregelen te nemen om dit te voorkomen. Hij meent echter dat deze verplichting onduidelijk is, niet aan het juiste soort aanbieders is gericht en aanbieders blootstelt aan disproportioneel hoge boetes.
Vooruitblik
De komende jaren moeten uitwijzen of de AI-verordening geschikt is om de snelle ontwikkelingen in kunstmatige intelligentie goed te reguleren. Verduidelijking wordt verwacht door definitieve richtlijnen, uitleg door nationale toezichthouders en – al zal het nog even duren – de eerste handhavingszaken. Voor aanbieders van algemene AI-systemen betekent dit in ieder geval dat zij moeten nadenken over wat er op grond van de verordening allemaal van hen verwacht wordt.
Het hele artikel lees je hier.
(Openen in een nieuw venster)
Lees hier ook het artikel van Marthe van der Velde over de auteursrechtelijke aspecten van de AI act.