Terug naar het overzicht

25 augustus 2024

Wat is de AI Act? 🌍🤖

De AI Act is een baanbrekende Europese verordening die gericht is op het reguleren van autonome computersystemen en algoritmes die beslissingen nemen, content genereren of mensen assisteren. Het doel van deze wetgeving is om ervoor te zorgen dat kunstmatige intelligentie (AI) binnen de EU veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk is, allemaal onder menselijk toezicht. 🌱

Kernpunten van de AI Act:

  • Veiligheid en transparantie: AI-systemen moeten veilig zijn in gebruik en transparant werken, zodat het duidelijk is hoe beslissingen worden genomen.
  • Risicogebaseerde aanpak: De wet hanteert een risicogebaseerde benadering, wat betekent dat de verplichtingen afhankelijk zijn van het risiconiveau van het AI-systeem.
  • Toepassing in diverse sectoren: De regels zijn van toepassing op alle sectoren, van gezondheidszorg tot entertainment, met specifieke aanpassingen voor bijvoorbeeld opsporings- en veiligheidsdiensten.

Voor wie geldt de AI Act? 👥⚖️

De AI Act is relevant voor iedereen die AI ontwikkelt, op de markt brengt of inzet. Dit omvat producenten, integrators, importeurs en gebruikers van AI. Het is cruciaal dat alle betrokken partijen kunnen aantonen dat hun AI-systemen voldoen aan de wetgeving. Dit sluit aan bij bestaande Europese regelgeving, zoals de Medical Device Regulation (MDR) in de gezondheidszorg.

Boetes 💸🚨

Overtredingen van de AI Act kunnen leiden tot zeer hoge boetes:

  • Grote overtredingen: Tot 35 miljoen euro of 7% van de wereldwijde omzet.
  • Kleinere administratieve overtredingen: Tot 7,5 miljoen euro of 1,5% van de omzet.

Risiconiveaus in de AI Act 📊🔍

De AI Act deelt AI-systemen in op basis van hun risiconiveau:

  • Onacceptabele risico’s: AI-systemen die Europese normen en waarden schenden, zoals predictive policing of biometrische surveillance in publieke ruimtes, zijn verboden in de EU.
  • Hoge risico’s: Deze AI-systemen mogen alleen gebruikt worden als ze aan strenge voorwaarden voldoen, zoals duidelijkheid over de herkomst van data en menselijk toezicht. Voorbeelden zijn AI-systemen die medische hulpmiddelen aansturen of sollicitanten beoordelen.
  • Lage risico’s: AI-systemen met een laag risico mogen de markt op zonder al te veel restricties, maar moeten wel transparant zijn en mogen geen beslissingen nemen zonder menselijke tussenkomst.

Verplichtingen voor AI-systemen 🛠️📜

Voor AI-systemen met een hoog risico zijn de volgende verplichtingen van toepassing:

  • Fundamental Rights Impact Assessment: Een beoordeling van de impact van AI op zaken als veiligheid, privacy en discriminatie.
  • Risicomanagementsysteem: Het identificeren, evalueren en beheren van potentiële risico’s.
  • Systeem voor gegevensbeheer: Gebruik maken van onbevooroordeelde en kwalitatieve datasets.
  • Technische documentatie: Gebruikers moeten precies weten hoe het AI-systeem werkt en hoe het veilig gebruikt kan worden.
  • Transparantie en logging: Het AI-systeem moet transparant zijn in zijn werking, en alles moet gedocumenteerd worden om te kunnen traceren wat er is gebeurd.
  • Menselijk toezicht: Er moet altijd menselijk toezicht zijn bij het gebruik van AI.
  • Conformiteitsbeoordeling: Een specifieke beoordelingsprocedure die afgestemd is op de unieke risico’s van AI-systemen.

Wat betekent de AI Act voor jou? 🤔🏢

Als je werkt met AI of algoritmes, of dit overweegt, zijn er een paar belangrijke stappen die je nu al kunt nemen:

  • Inventariseer je AI-systemen: Zorg dat je weet welke AI-systemen je gebruikt, waar ze vandaan komen en welke informatie je van leveranciers nodig hebt.
  • Beoordeel je rol en verantwoordelijkheden: Controleer of je contracten en afspraken aansluiten bij de nieuwe wetgeving.
  • Evalueer de uitvoer van AI-systemen: Zorg voor protocollen om de juistheid van AI-uitkomsten periodiek te controleren.
  • Bepaal het risiconiveau: Check of jouw AI-systemen vallen onder de categorie hoog risico en zorg voor de juiste conformiteitsbeoordeling.

Wanneer treedt de AI Act in werking? 📅🚀

De AI Act is officieel gepubliceerd op 12 juli 2024 en treedt in werking op 1 augustus 2024. De meeste verplichtingen voor bedrijven en instellingen worden twee jaar later van kracht, maar systemen met een onacceptabel risico moeten al binnen zes maanden van de markt worden gehaald.

De AI Act en AVG: Wat is het verband? 🔗🛡️

De AI Act werkt nauw samen met de Algemene Verordening Gegevensbescherming (AVG), die de privacy van individuen beschermt. Samen zorgen deze verordeningen ervoor dat AI-systemen niet alleen veilig en betrouwbaar zijn, maar ook de privacy van gebruikers respecteren.

Conclusie 🎯

De AI Act is een belangrijke stap in de richting van veilige en verantwoorde AI in Europa. Door de risico’s te beheersen en transparantie te waarborgen, wil de EU innovatie bevorderen zonder de rechten van individuen te schaden. Voor organisaties betekent dit dat ze nu al moeten beginnen met het aanpassen van hun AI-strategieën om aan deze nieuwe regelgeving te voldoen. Voor meer info bekijk de Regels bij gebruik van AI & algoritmes.

Meer weten?

Neem contact op
AI Act