12 mei 2023

Overeenstemming over Europese regelgeving AI

Terug

De Europese Unie is wat laat geweest met het opleggen van regels aan techbedrijven: Google en Facebook moeten pas de komende maanden voldoen aan strenge regels voor privacy en het verwijderen van haatberichten. Maar op het gebied van regelgeving voor AI (kunstmatige intelligentie) loopt de EU wereldwijd voorop. Mede aangespoord door de snelle opkomst van ChatGPT hebben twee commissies van het Europees Parlement ingestemd met een voorstel voor regulering van AI.
De AI Act (Wet op Kunstmatige Intelligentie) verdeelt AI-systemen onder in risicogroepen. Bovenaan staan systemen die zo'n groot risico vormen dat ze verboden worden. Het gaat hierbij bijvoorbeeld om systemen die het gedrag van mensen beoordelen en gebruik maken van realtime biometrische identificatie, zoals het werken met gezichtsherkenning. Het Europees parlement wil ook systemen voor emotieherkenning (ook op het werk en in het onderwijs) verbieden. Ten slotte verbiedt de wet systemen die criminaliteit en fraude voorspellen op basis van profilering (zoals in de toeslagenaffaire gebeurde).
De tweede risicogroep bestaat uit AI-systemen die worden aangeduid als 'hoog risico'. Dit zijn toepassingen die impact kunnen hebben op je rechten als mens, maar ook op je gezondheid. Hierbij gaat het om systemen die de politie kan gebruiken bij het opsporen van verdachten, of systemen die cv's van sollicitanten scannen. Dit soort ‘hoog risico’-systemen moet voldoen aan strenge eisen. Ze mogen bijvoorbeeld niet discrimineren, ze moeten transparant zijn over wat er gebeurt en toezichthouders moeten kunnen zien wat er onder de motorkap gebeurt. Een risicoanalyse wordt verplicht.

Keurmerk voor AI

Daarnaast wordt er gewerkt aan een keurmerk voor AI. 'Hoog risico'-systemen worden alleen toegelaten op de Europese markt als ze aan bepaalde eisen voldoen, waaronder energiezuinigheid. Omdat de ontwikkelingen heel snel gaan, is de wet zodanig flexibel gemaakt, dat zaken later aangepast of toegevoegd kunnen worden.
Een speciale positie krijgen de zogenaamde ‘foundation models’, zoals ChatGPT en beeldgenerator Midjourney. De regels voor deze systemen worden bijna net zo streng als voor 'hoog risico'-toepassingen. De reden dat bijvoorbeeld ChatGPT niet standaard in de categorie ‘hoog risico’ valt, is dat niet elk systeem dat tekst of een afbeelding genereert automatisch ook extra risico met zich meebrengt. Het is nog onduidelijk wat dit precies gaat betekenen voor ChatGPT, omdat het bedrijf achter ChatGPT totaal niet transparant is, en niet helemaal duidelijk is wat ze doen. Vanaf volgend jaar komt er dan ook al wel een transparantieverplichting voor techbedrijven.
Het voorstel dat er nu ligt, is de eerste stap in een langdurig proces. Volgende maand volgt een plenaire stemming in het Europees Parlement. Daarna beginnen de onderhandelingen met de Raad van de Europese Unie, waarin alle lidstaten zitten, en dan zal de wet naar verwachting begin volgend jaar klaar zijn. De implementatie neemt dan nog twee jaar in beslag. Maar het is al wel een belangrijk voorstel, omdat er voor het eerst wetgeving gemaakt is die AI gaat reguleren en beperken. En dat is precies waar veel wetenschappers en mensen uit het bedrijfsleven om vragen.
Ondertussen werkt ook de Raad van Europa aan wetgeving die gebaseerd is op de Rechten van de Mens en de burger beter beschermt tegen discriminatie door AI-systemen. Met deze wetten loopt de Europese Unie voorop bij het reguleren van AI.

image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor image decor