De kern van de AI Act: Annex III
De AI Act is geen sectorale wet; het reguleert geen ‘woningcorporaties’ of ‘banken’. De wet reguleert specifieke toepassingen (use cases) van AI. De beruchte ‘Annex III’ van de verordening somt de domeinen op waar AI-systemen per definitie als hoog-risico worden beschouwd, vanwege hun potentieel om fundamentele rechten, veiligheid of kansen van burgers te schaden.
Voor woningcorporaties zijn twee categorieën uit deze annex direct relevant:
- Toegang tot en genot van essentiële particuliere diensten en openbare diensten en voordelen.
- Werkgelegenheid, personeelsbeheer en toegang tot zelfstandig ondernemerschap.
Als een corporatie AI inzet binnen deze domeinen, gaan de zware verplichtingen van de Act gelden.
Het zwaartepunt: AI bij toewijzing en verhuur
De meest voor de hand liggende ‘high-risk’ toepassing binnen de corporatiesector is het gebruik van AI voor de kernprocessen: verhuur en toewijzing van sociale huurwoningen.
Sociale huisvesting wordt juridisch gezien als een ‘essentiële dienst’. Dit betekent dat elk AI-systeem dat wordt ingezet om:
- Urgentie te bepalen: Een algoritme dat op basis van data (medisch, sociaal, gezinssamenstelling) een urgentiescore toekent.
- Kandidaten te rangschikken: Systemen die bepalen wie de meest ‘passende’ kandidaat is voor een woning, voorbij de simpele wachttijd.
- Betalingsgedrag of kredietwaardigheid te voorspellen: Het evalueren van potentiële huurders op hun financiële betrouwbaarheid.
- Fraude te detecteren: Het profileren van huurders om mogelijke woonfraude op te sporen.
…vrijwel zeker wordt geclassificeerd als een hoogrisicosysteem. De impact op de burger is immers enorm; het systeem beslist (mede) over iemands fundamentele recht op onderdak.
HR en Leefbaarheid: De andere risicogebieden
De impact van de AI Act beperkt zich niet tot het primaire verhuurproces. Corporaties zijn ook werkgevers en beheerders van de openbare ruimte.
1. Werkgelegenheid (HR)
Gebruikt de HR-afdeling AI-software om cv’s te screenen, sollicitanten te rangschikken, of prestaties van medewerkers te monitoren? Annex III is hier expliciet over: dit zijn hoogrisicosystemen. Een algoritme dat (bewust of onbewust) discrimineert bij het selecteren van een nieuwe onderhoudsmonteur of verhuurmedewerker, valt direct onder de strenge regels.
2. Leefbaarheid en Nuisance (het grijze gebied)
Een complexer domein is ‘leefbaarheid’. Stel, een corporatie gebruikt een AI-systeem dat meldingen van overlast analyseert, patronen herkent in wijken, en voorspelt waar interventies nodig zijn.
Dit balanceert op de rand. Als het systeem puur analytisch is (“In wijk X is meer geluidsoverlast gemeld”), is het risico lager. Maar als het systeem individuen profileert (“Huurder Y vertoont een hoog risico op het veroorzaken van overlast”) en dit leidt tot beslissingen zoals monitoring, waarschuwingen of zelfs het starten van een uitzettingsprocedure, dan raakt dit direct aan het ‘genot van de essentiële dienst’ (het wonen) en mogelijk zelfs aan ‘rechtshandhaving’. De kans is groot dat ook deze systemen als HRAIS worden aangemerkt.
Wat is (waarschijnlijk) géén hoog risico?
Om de sector niet onnodig kopschuw te maken: de AI Act verbiedt innovatie niet. Tal van AI-toepassingen vallen in de ‘laag’ of ‘minimaal risico’ categorie:
- Voorspellend onderhoud: Een AI die analyseert wanneer een cv-ketel of lift waarschijnlijk defect raakt. Dit systeem beoordeelt assets, geen mensen.
- Optimalisatie van onderhoudsroutes: Software die de meest efficiënte route plant voor de busjes van servicemedewerkers.
- Standaard chatbots: Een chatbot op de website die openingstijden deelt of uitlegt hoe men een reparatieverzoek indient (hier gelden wel transparantieregels: de gebruiker moet weten dat hij met AI praat).
Conclusies: Dit betekent ‘high-risk’ voor corporaties
De constatering dat woningcorporaties te maken krijgen met de ‘high-risk’ stempel is geen theoretische exercitie. Als een systeem als HRAIS wordt aangemerkt (ofwel omdat de corporatie het zelf ontwikkelt, of, waarschijnlijker, inkoopt bij een softwareleverancier), legt de AI Act zware verplichtingen op aan de corporatie als gebruiker (deployer).
De corporatie wordt verplicht tot:
- Menselijk toezicht (Human Oversight): Er moet altijd een mens zijn die de output van het AI-systeem kan controleren, overrulen of negeren. Automatische, onomkeerbare beslissingen (bijv. een automatische afwijzing voor een woning) zijn verboden.
- Data Governance: De data waarmee het systeem is getraind en wordt gevoed, moet van hoge kwaliteit, relevant en zo onbevooroordeeld (bias-vrij) mogelijk zijn.
- Transparantie en Logboeken: Het systeem moet technisch zo zijn ingericht dat het ‘uitlegbaar’ is (explainability) en er moeten logs worden bijgehouden van de werking, zodat beslissingen achteraf traceerbaar zijn.
- Conformiteitsbeoordeling (vóór ingebruikname): Voordat het systeem ‘live’ gaat, moet het een strenge toetsing doorstaan om te bewijzen dat het aan alle eisen voldoet.
De AI Act is abstract, maar de gevolgen zijn concreet. Het is voor Nederlandse woningcorporaties essentieel om nu te inventariseren welke AI-systemen (of zelfs geavanceerde algoritmes in bestaande softwarepakketten) zij al gebruiken of overwegen. De tijd om ‘AI-governance’ in te richten is niet morgen, maar vandaag.
