Waarschijnlijk heb je het al gehoord: de nieuwe EU AI-verordening heeft gevolgen voor het wervings- en selectieproces. Duizelt het je allemaal een beetje? Dat begrijpen we helemaal, dus daarom hebben we de 8 belangrijkste vragen en antwoorden over de nieuwe AI-wet voor je op een rij gezet.
AI is niet meer weg te denken in onze samenleving. Daar kleven een hoop voordelen aan, maar bij verkeerd gebruik kunnen de gevolgen desastreus zijn. In de nieuwe Europese AI-wet zijn regels opgenomen die het risico op discriminatie, beperkingen van vrijheden, misleiding en uitbuiting van mensen moeten minimaliseren.
Het belangrijkste punt uit de AI-Act, is dat AI-systemen nu zijn opgedeeld in vier risicogroepen:
Afhankelijk van het risiconiveau, gelden er strengere regels. AI-instrumenten die gebruikt worden voor werkgelegenheid, werknemersbeheer en werving, vallen onder hoog risico. Dat heeft niet alleen gevolgen voor de ontwikkelaars van AI-tools, maar ook de gebruikers. Zij moeten zich allemaal aan strenge regels houden. Daar komen we straks op.
De wet wordt gefaseerd ingevoerd en is vanaf 2 augustus 2027 volledig van kracht. Sinds 2 februari 2025 zijn systemen met een onaanvaardbaar risico al verboden.
Werkgevers die met AI-systemen werken, moeten er sinds 2 februari 2025 ook verplicht voor zorgen dat hun werknemers AI-geletterd zijn. Met andere woorden: zij moeten genoeg weten over AI om er op een verantwoorde manier mee om te gaan. Zowel technisch, als ethisch.
Veel bedrijven maken momenteel al gebruik van AI-tools voor recruitment. Denk aan ATS-systemen die kandidaten screenen of tools die je helpen bij het voeren van online sollicitatiegesprekken. Voor de meerderheid van de recruitment-tools geldt dat ze in de categorie hoog risico vallen, omdat ze potentieel discriminerend zijn.
De gevolgen van de EU AI-Act voor het wervings- en selectieproces zijn groot, dus het is slim om je nu alvast voor te bereiden, zodat je er klaar voor bent op 2 augustus 2027. Dit zijn de regels waaraan AI in recruitment moet voldoen:
Autonomie is een belangrijk onderdeel van de AI-Act. Dat betekent dat je een AI-systeem nooit de volledige beslissingsbevoegdheid mag geven. Hij mag wel helpen bij de selectie van kandidaten bijvoorbeeld, maar er moet een mens betrokken blijven bij de uiteindelijke selectie. Het systeem adviseert, jij beslist.
Transparantie is de andere belangrijke factor in de nieuwe EU AI-wet. Concreet betekent dit dat je moet weten hoe je AI-systeem tot bepaalde conclusies komt - bijvoorbeeld het selecteren van Kandidaat A en B, maar niet C - en je moet zijn denkpad kunnen reconstrueren.
Simpel gezegd: het systeem mag geen black box zijn, maar moet transparant zijn.
De rapportages, scripts en logboeken van het AI-systeem moeten allemaal opgeslagen worden én te controleren zijn. Je mag dus niet alleen op het eindresultaat afgaan.
Stel dat je een vacature uit hebt staan en je AI-tool maakt een selectie van sollicitanten. Maar al snel blijkt dat hij stelselmatig inwoners uit Rotterdam uitsluit. In plaats daarvan selecteert hij alleen profielen uit Amsterdam. Dit is een incident.
Soms is er een logische verklaring voor een incident. Misschien heeft niemand in Rotterdam de juiste opleiding gevolgd, en de mensen in Amsterdam wel. Dan is de uitsluiting van Rotterdammers logisch. Maar het kan ook dat je AI-systeem een onterechte bias (vooroordeel) heeft.
Je bent volgens de AI-Act nu verplicht om alle incidenten te melden bij de aanbieder van het systeem en de toezichthouder.
Stel dat iemand wordt afgewezen voor een baan na het afnemen van een assessment, waarbij een AI-systeem is gebruikt. Dan mogen zij nu een klacht indienen bij de toezichthouder, omdat er op basis van AI een besluit over hen is genomen. Zij mogen ook om uitleg over de beslissing vragen.
Je bent door de AI-Act verplicht om te vermelden dat je AI gebruikt in het recruitmentproces. Dit is onderdeel van de transparantie rondom het gebruik van kunstmatige intelligentie.
Grote kans dat je niet zelf een AI-tool hebt ontwikkeld, maar dat je een systeem gebruikt van een externe ontwikkelaar. Dan vraag je je nu wellicht af: bij wie ligt de verantwoordelijkheid dat het systeem fair en transparant is? Antwoord: bij jullie allebei.
Natuurlijk moet de ontwikkelaar een deugdelijk product leveren, maar jij blijft als eindgebruiker verantwoordelijk voor wat het AI-systeem doet. En dus ook voor de bias die erin zit. Dat houdt in dat jij zelf moet uitvragen en controleren hoe het systeem tot zijn conclusies komt.
Mag de AI bijvoorbeeld bepalen dat een gat in iemands cv relevant is? Mag de AI daar überhaupt naar kijken? En nog gladder ijs: mag hij conclusies verbinden aan de naam van een onderwijsinstelling waar iemand aan gestudeerd heeft? Jij blijft verantwoordelijk voor hoe het systeem met deze morele vragen omgaat.
Er is vastgesteld dat je een boete krijgt als je de regels in de nieuwe EU AI-verordening overtreedt. Die boete kan oplopen tot een bedrag van 35 miljoen euro, of 7 procent van de wereldwijde jaaromzet van het bedrijf. Het ligt eraan welk bedrag hoger uitkomt - het hoogste bedrag wordt de boete.
Kortom: je moet zo snel mogelijk beginnen met inventariseren of jij klaar bent voor de nieuwe AI-wetgeving in Europa. Zo voorkom je een hoop gedoe.