Europese eisen en kaders
Dit zijn Europese eisen en kaders voor kunstmatige intelligentie: een digitale technologie die een steeds grotere rol speelt in de maatschappij en economie. Daarmee krijgt de juiste ontwikkeling van AI - gericht op economische kansen én het waarborgen van publieke waarden - in de EU en Nederland een belangrijke impuls.
Duidelijke kansen
De AI Act biedt duidelijke kansen voor zowel ontwikkelaars als ondernemers en ook waarborgen voor Europese consumenten. Het gaat onder andere om basisafspraken over de werking van AI in producten en diensten, eisen aan mogelijk risicovolle toepassingen en de ondersteuning van ontwikkelaars zoals mkb’ers. Zo kunnen Europeanen vertrouwen op AI.
Ontwikkelaars
Zo biedt de AI Act richting voor ontwikkelaars om aan de eisen te voldoen. Binnen zogenoemde regulatory sandboxes kunnen zij hiermee innoveren. Zo kunnen AI-toepassingen in de EU worden ontwikkeld die én onze technologische positie op de wereldmarkt verbeteren én die zorgen voor AI van hoge kwaliteit. AI in bijvoorbeeld designprogramma's, toepassingen in de maakindustrie en in videogames kan zo worden gestimuleerd.
Afspraken in voorlopig politiek akkoord
In het politiek akkoord zijn ook afspraken gemaakt over wat ’hoog risico AI-systemen zijn en welke eisen hieraan worden gesteld. Ook zijn bepaalde soorten onwenselijke AI straks verboden, zoals social scoring of manipulerende AI-technieken. Aanbieders van chatbots in webwinkels, deepfake technieken of generatieve AI-systemen zoals het populaire ChatGPT moeten ervoor zorgen dat het voor mensen duidelijk is dat ze met een AI praten of dat content door AI is gemaakt. AI-systemen met geen tot weinig risico’s voor mensen hoeven niet aan extra eisen te voldoen. Dit zijn bijvoorbeeld AI-systemen voor klantenservices, voor voorraadbeheer of voor laag-risico data.
'Razendsnel'
Minister Micky Adriaansens (Economische Zaken en Klimaat): “Kunstmatige intelligentie gaat op dit moment wereldwijd razendsnel. Het is zaak dat we in Europa daarin ons beter positioneren. Dan kunnen we onze achterstand met deze technologie inlopen, profiteren wij economisch beter van de kansen die AI biedt en kunnen we sturen op de ontwikkeling van AI-systemen die werken volgens de wenselijke normen in onze maatschappij. Innovatie door onderzoekers en ondernemers moeten we dus sterk blijven stimuleren. Tegelijkertijd moeten we goedwerkende en veilige AI-systemen waarborgen om vertrouwen te creëren. De toekomstige AI Act belooft daarin de juiste balans te brengen.”
Blijven kijken naar de kansen en risico’s
Staatssecretaris Alexandra van Huffelen (Koninkrijksrelaties en Digitalisering): “Omgaan met AI draait om goede balans tussen het benutten van mogelijkheden en tegemoetkomen aan bezwaren. Er zijn een heleboel sectoren waar Nederland sterk in is en waarin AI een grote rol gaat spelen. Denk aan landbouw, onderwijs, gezondheidszorg, vrede en veiligheid. Nederland maakt zich er internationaal sterk voor dat we deze technologie kunnen vertrouwen. Om bijvoorbeeld discriminatie te voorkomen bij gebruik van AI voor het toekennen van toeslagen of transparantie van algoritmes in de financiële sector. Ik ben blij met een EU-akkoord. Maar dit ontslaat ons niet van de verplichting om te blijven kijken naar de kansen en risico’s van inzet van AI-technologie en de handhaving van de regels.”
Duidelijkheid voor ontwikkelaars en gebruikers
De AI Act schept duidelijkheid voor AI-ontwikkelaars wanneer zij hun producten op de Europese markt willen aanbieden. Ook zijn gebruikers van AI aan regels gebonden om risico’s te voorkomen. De wettelijke verplichtingen, zoals een risicomanagementsysteem, gelden straks voor hoog-risico AI-systemen die bijvoorbeeld invloed hebben op de kansen van mensen op de arbeidsmarkt, het onderwijs, de financiële dienstverlening of medische apparaten. Ongeveer 15% van alle AI-systemen valt hier onder. Voor de echt grote AI-modellen komen aparte eisen en Europees toezicht.
AI-producten
Consumenten, overheden en bedrijven die AI-producten kopen of hiermee in aanraking komen, kunnen er zo van uitgaan dat deze systemen veilig zijn. Toezicht moet ervoor zorgen dat onveilige systemen van de markt af gaan en dat hiervoor boetes aan ontwikkelaars kunnen worden opgelegd die niet voldoen aan de eisen. Tegelijkertijd zorgen de Europese regels voor een gelijk speelveld; ook niet-Europese aanbieders van AI-producten en -dienstverlening moeten hieraan voldoen als zij hun producten hier verkopen. Organisaties die AI inzetten, zoals mkb’ers, kunnen er straks op vertrouwen dat deze goed werken en daarbij ondersteuning krijgen van de ontwikkelaar. Het akkoord moet nog wel worden goedgekeurd door alle EU-lidstaten en het hele Europees Parlement. De wet treedt na twee jaar in werking.