Van spamfilter over chatbots tot slimme wervingsprocessen. Artificiële intelligentie (AI) is sinds enkele jaren verweven met onze bedrijfsvoering. Maar waar trek je de lijn over wat wel en niet kan? Wel, dat hoef jij voortaan niet meer te doen. Sinds februari 2025 is de AI Act van kracht en reguleert de EU het AI-gebruik, met onder andere speciale aandacht voor AI-geletterdheid.
De 4 risiconiveaus van de AI Act
De AI Act is er gekomen om verantwoord AI-gebruik binnen bedrijven te stimuleren, de rechten van individuen te beschermen en te zorgen voor een veilige implementatie van AI-tools. Daarom deelt de AI Act toepassingen in op basis van risico. Hoe kleiner het risico, hoe losser de regels. Er zijn 4 categorieën.
1. Minimaal risico
Onder deze categorie mag je onschuldige AI-implementaties verstaan zoals een spamfilter die met AI ongewenste mail uit je inbox houdt of een AI-chatbot. Dit zijn de meest gebruikte AI-toepassingen binnen de EU en die mag je vrij hanteren.
2. Beperkt risico
De bekendste toepassingen die onder deze categorie vallen, zijn generatieve AI-tools, zoals ChatGPT. Transparantie is hier de boodschap. AI-gegenereerde inhoud moet duidelijk herkenbaar zijn, via een label bijvoorbeeld.
Waarom moet je kritisch denken als je AI-tools zoals ChatGPT gebruikt?
Lees er hier meer over en bekijk de Learning Snack.
3. Hoog risico
Vormt een AI-toepassing een mogelijk risico op het gebied van gezondheid, veiligheid of basisrechten? Dan krijg je te maken met strenge controles. Denk aan AI-systemen die biometrische gegevens gebruiken tijdens wervingsprocessen of de kredietwaardigheid van mensen beoordelen. Je zal risicoanalyses moeten uitvoeren, data-input onder de loep moeten nemen, alles wat je doet documenteren ...
4. Onaanvaardbaar risico
Toepassingen die een regelrechte bedreiging voor de veiligheid of het welzijn vormen, zijn met de AI Act strikt verboden. We spreken dan bijvoorbeeld over emotieherkenning op de werkvloer of een sociale score toekennen op basis van gedrag.
Uitrol van de AI Act in 3 fases
In de AI Act is dus sprake van 4 risiconiveaus. Maar wat betekent dat in de praktijk? Wel, de toepassing van de AI Act volgt nu in 3 fases.
- De eerste fase hebben we al achter de rug, want die ging in op 1 februari 2025. Onaanvaardbare AI is verboden en medewerkers moeten AI-geletterd zijn (zie verder).
- Vanaf 1 augustus 2025 moet je als bedrijf voldoen aan de bepalingen van AI met een beperkt risico.
- Een jaar later, op 1 augustus 2026, moeten ook alle toepassingen met een hoog risico conform zijn aan de wetgeving.
Naar AI-geletterdheid in 5 stappen
De AI Act verplicht bedrijven ook om de ‘AI-geletterdheid’ van hun medewerkers op peil te brengen. Dat wil zeggen dat je ze de vaardigheden, de kennis en het begrip bijbrengt om correct met AI om te gaan.
Welke maatregelen je effectief kan of moet nemen, schrijft de AI Act jammer genoeg niet voor. Je hebt dus zelf de touwtjes in handen om je medewerkers te informeren. Hier zijn 5 stappen die je als bedrijf kan zetten om AI-geletterdheid te waarborgen.
- Stel een AI-beleid op en creëer een organisatiebreed beleid voor het gebruik van AI. Zet daarin richtlijnen over ethiek, transparantie en toezicht.
- Maak een inventarisatie van alle AI-systemen binnen de organisatie. Zo krijg je een overzicht van alle gebruikte toepassingen.
- Breng de AI-kennis van je medewerkers in kaart. Stel vast welk niveau van AI-geletterdheid je medewerkers al hebben en welke kennis ze nog moeten opdoen.
- Boost ook effectief de AI-geletterdheid van je medewerkers. Denk aan opleidingen of cursussen die hen helpen om hun AI-kennis uit te breiden.
- Vergeet ook niet om regelmatig te evalueren. AI-geletterdheid is een constant proces, geen einddoel. AI verandert snel, waardoor je je steeds zal moeten bijscholen.
Hoe kan Cevora je helpen?
Hoe sneller je op de kar springt, hoe sneller je bedrijf wegwijs geraakt in de AI-revolutie. En daar helpt Cevora je maar al te graag bij!
Met opleidingen, webinars en de Week van AI van 12 tot 15 mei zorgen we dat je helemaal mee bent.