Dit stuk schreef ik in eigen tijd als persoonlijke reflectie. Het verwoordt geen standpunt of beleidslijn

van mijn werkgever of de Rijksoverheid en dient uitsluitend als analytische of filosofische verkenning.

AI en de rechtsstaat

AI en de rechtsstaat: de noodzaak van een expliciete beslisarchitectuur

February 27, 20265 min read

De vraag of de overheid AI moet inzetten, is inmiddels achterhaald. Dat gebeurt al. De werkelijke vraag is fundamenteler:

Is onze normatieve logica expliciet genoeg om door AI gedragen te worden zonder dat de rechtsstaat verschuift?

De recente casus rond het recidive-algoritme bij de reclassering laat zien waarom dit geen theoretische exercitie is, maar een bestuurlijke noodzaak.

De casus: meer dan een technisch incident

Begin 2026 publiceerde de Inspectie Justitie en Veiligheid een kritisch rapport over het gebruik van het recidive-model OxRec door de reclassering. Het model schatte de kans op herhaald delictgedrag in en speelde een rol in adviezen aan rechters.

De Inspectie constateerde onder meer:

  • Softwarefouten. Door fouten in de software-implementatie en methodologische tekortkomingen leverde het model sinds 2018 systematisch afwijkende risico-inschattingen op. Bij algemene recidive leidde dit in circa 21% van de gevallen tot een afwijkende risicocategorie.

  • Verouderde data. Het model was gebaseerd op oudere Zweedse data (2001–2009) en is niet opnieuw getraind op actuele Nederlandse reclasseringsdata. Daarnaast weken gebruikte variabelendefinities af van de oorspronkelijke modelontwikkeling.

  • Discriminatierisico. Het gebruik van variabelen zoals buurtscore en inkomen riep vragen op over mogelijke discriminatierisico’s. De Inspectie constateerde dat hiervoor geen aanvullende mitigerende maatregelen waren getroffen.

  • Zwakke governance. Governance rond onderhoud, toetsing en verantwoordelijkheid was onvoldoende ingericht. De Inspectie kwalificeert de OXREC bovendien als een hoog-risico AI-systeem in de zin van de AI-verordening, waarvoor vanaf 2030 aanvullende wettelijke verplichtingen gelden.

Op het eerste gezicht lijkt het te gaan om een technisch probleem: een model werkte niet goed. Maar bij nadere beschouwing blijkt dat het misging op meerdere lagen tegelijk. Juist dat maakt deze casus exemplarisch.

Vier lagen van publieke besluitvorming

Publieke besluitvorming kent minimaal vier lagen:

1) De berekeningslaag

De formule of het model dat een score of classificatie produceert.
Probleem in de casus: rekenfouten en datakwaliteit.

2) De beslislaag

De normatieve vertaling van score naar besluit of advies.
Wat betekent 63% kans? Welke interventie volgt daaruit? Hoe weegt professioneel oordeel mee?
Probleem in de casus: onduidelijke interpretatie en weging.

3) De semantische laag

De betekenis van begrippen en de toelaatbaarheid van variabelen.
Wat is “recidive”? Wat is een “risicofactor”? Welke kenmerken zijn juridisch legitiem?
Probleem in de casus: impliciete, onvoldoende getoetste begripskeuzes.

4) De governance-laag

Wie beheert, wijzigt en controleert het systeem? Hoe is versiebeheer en herleidbaarheid geregeld?
Probleem in de casus: zwakke sturing en toezicht.

De Inspectie constateerde tekortkomingen op meerdere niveaus: implementatie, validatie, governance en menselijke controle. Wat daarbij zichtbaar wordt, is het ontbreken van een expliciet samenhangende beslisarchitectuur die deze elementen integraal verbindt.

Essentie van het spanningsveld

AI-systemen, inclusief moderne AI-agents, zijn in de kern probabilistisch. Ze werken met waarschijnlijkheid, patroonherkenning en optimalisatie.

De rechtsstaat werkt anders. Zij vereist:

  • legaliteit,

  • voorspelbaarheid,

  • gelijke behandeling,

  • motivering,

  • verantwoordelijkheid.

Hier ontstaat spanning. Een model zegt:

“Deze persoon heeft 63% kans op recidive.”

De rechtsstaat vraagt:

“Op grond van welke norm wordt deze maatregel genomen?”

Zolang die normatieve vertaling impliciet in software of data besloten ligt, verschuift normstelling van wet en beleid naar model en dataset. Dat is geen technische correctie maar een verschuiving in normatieve macht.

AI-agents maken dit urgenter

AI-agents voegen handelingsvermogen toe. Ze kunnen:

  • informatie verzamelen,

  • plannen maken,

  • tools aanroepen,

  • processtappen uitvoeren.

Maar hun kern blijft probabilistisch.

Zonder expliciet normatief kader kunnen zij operationele keuzes maken die feitelijk normatieve gevolgen hebben. Dan ontstaat institutionele delegatie zonder normarchitectuur.

Dat is het kernrisico van deze tijd. Niet dat AI bestaat en wordt toegepast, maar dat zij beslisruimte krijgt zonder expliciete, democratisch gelegitimeerde structuur.

Wat dit betekent voor uitvoeringsorganisaties

De komende vijf jaar verschuift de kerncompetentie van uitvoeringsorganisaties. Niet langer staat alleen procesoptimalisatie centraal. Doorslaggevend wordt:

  • expliciete beslisregels,

  • formele begripsdefinities,

  • model- en versiebeheer,

  • herleidbaarheid van uitkomsten.

Uitvoeringsorganisaties worden beheerders van beslisarchitectuur. Dat vraagt:

  • multidisciplinaire teams (juridisch, data, uitvoering),

  • structureel modelbeheer,

  • explicitering van impliciete vakkennis,

  • duidelijke kaders voor mens-machine-interactie.

Organisaties die deze architectuur niet ontwikkelen, lopen het risico dat hun modellen feitelijk normsteller worden. Met inspectierapporten, juridische procedures en reputatieschade als gevolg.

Wat dit betekent voor beleidsdepartementen

Voor beleidsdepartementen verandert de aard van beleid zelf. Beleid dat niet modelleerbaar is, wordt een uitvoeringsrisico. Vage normen, onduidelijke begrippen en impliciete uitzonderingen maken automatisering gevaarlijk. Dat betekent dat beleidsvorming in toenemende mate:

  • beslisruimte expliciet moet definiëren,

  • discretionaire ruimte moet benoemen,

  • grenzen van automatisering moet vastleggen.

Beleidswijziging wordt daarmee niet alleen een tekstuele aanpassing, maar een wijziging van het beslismodel zelf. Strategisch vermogen verschuift daarmee van abstract toekomstdenken naar:

  • normarchitectuur ontwerpen,

  • uitvoerbaarheid expliciteren,

  • besliscomplexiteit reduceren waar mogelijk.

Wat dit betekent voor toezichthouders

Toezicht verschuift van casusniveau naar systeemniveau. De klassieke vraag of het besluit rechtmatig was, wordt aangevuld met de vraag of de onderliggende beslisarchitectuur zorgvuldig en rechtmatig was ingericht. Toezichthouders zullen steeds vaker toetsen:

  • Zijn beslisregels expliciet vastgelegd?

  • Is de vertaling van modeluitkomst naar besluit helder?

  • Zijn begrippen juridisch consistent gedefinieerd?

  • Is modelbeheer adequaat ingericht?

  • Zijn wijzigingen herleidbaar?

Dat vereist nieuwe expertise en een gelaagde toezichtmethodiek.

Twee toekomstbeelden

De publieke sector staat voor een keuze tussen verschillende toekomsten:

Scenario A. Impliciete normverschuiving

AI-toepassingen verspreiden zich snel. Normatieve kaders blijven impliciet. Incidenten leiden tot correcties achteraf.

Scenario B. Rechtsstatelijk ingebedde AI

Beslisregels zijn expliciet. Begrippen zijn formeel gedefinieerd. Agents opereren binnen begrensde kaders. Besluiten zijn herleidbaar. Toezicht is systemisch.

Het verschil tussen deze scenario’s gaat niet over de technologie maar over de mate van bestuurlijke explicitering.

Conclusie

Het kernrisico van deze tijd is niet dat AI probabilistisch is.Het kernrisico is dat probabilistische systemen normatieve ruimte krijgen zonder expliciete, democratisch gelegitimeerde architectuur.

De centrale strategische vraag voor de publieke sector luidt daarom:

Is onze besluitvorming expliciet genoeg om geautomatiseerd te worden, zonder dat de norm verschuift van wet naar model?

AI is daarmee minder een technologische innovatie dan een test voor de volwassenheid van het openbaar bestuur.

PlatformClicks - OpgavePlatform

Friso Coumou

PlatformClicks - OpgavePlatform

LinkedIn logo icon
Back to Blog