Tijdens een directievergadering legt de bedrijfsleider onverwacht een klein object op tafel. Geen rapport, geen dashboard, maar een ei.
“Dit,” zegt hij, terwijl de compliance- en securityverantwoordelijken elkaar verbaasd aankijken, “is het ei van Iota.”
Hij legt uit dat Iota symbool staat voor het allerkleinste begin. Voor keuzes die vandaag onbeduidend lijken, maar morgen het verschil maken tussen controle en crisis. Net zoals bij artificiële intelligentie: de eerste beleidskeuzes voelen klein, technisch en ver weg van de kernbusiness. Tot ze dat plots niet meer zijn.
“AI vraagt geen paniekreacties of pleisters achteraf,” vervolgt hij. “Het vraagt een juist beleid met langetermijnvisie. Niet wachten tot incidenten ons dwingen te handelen, maar vandaag al voorkomen wat morgen moeilijk te genezen is.”
De boodschap is helder: echte compliance is geen rem op innovatie, maar een stuur. Wie AI vanaf het begin verstandig bestuurt, hoeft later niet te repareren wat eigenlijk nooit had mogen ontsporen.

Cybersecurity onder NIS2 en andere compliance vereisten wordt vaak benaderd vanuit een klassiek IT-perspectief: netwerken, systemen, leveranciers en incidentrespons. Maar in de praktijk verschuift het dreigingslandschap sneller dan veel Compliance-roadmaps vandaag kunnen volgen. Kunstmatige intelligentie is daarbij geen abstract toekomstthema meer, maar een actieve factor in zowel aanvallen als verdediging.
Als jaarafsluiter publiceerde NIST eind december 2025 een voorlopige versie van het Cyber AI Profile. Dit profiel bouwt voort op NIST Cybersecurity Framework 2.0 en introduceert een expliciete lens om AI-specifieke cybersecurityrisico’s structureel te beheren. Het document maakt duidelijk dat AI niet simpelweg “nog een applicatie” is, maar een nieuw type digitaal systeem met eigen kwetsbaarheden, supply chains en faalmodi.
Van klassieke cyberbeveiliging naar AI-gedreven risico’s
Het Cyber AI Profile vertrekt vanuit drie samenhangende perspectieven: Secure, Defend en Thwart.
Deze driedeling is geen theoretisch model, maar een pragmatische vertaling van wat organisaties vandaag meemaken.

Secure focust op het beveiligen van AI-componenten zelf: modellen, datasets, trainingsomgevingen, inference-pijplijnen en externe AI-diensten. In tegenstelling tot traditionele software zijn deze componenten vaak dynamisch, minder transparant en afhankelijk van data van buiten de organisatie. Een verkeerd getrainde dataset of een gemanipuleerde input kan dezelfde impact hebben als een klassieke kwetsbaarheid.
Defend beschrijft hoe AI steeds vaker wordt ingezet in cyberverdediging: detectie, triage, correlatie en response. Tegelijk waarschuwt NIST dat deze AI-ondersteuning zelf ook risico’s introduceert, bijvoorbeeld wanneer beslissingen onvoldoende uitlegbaar zijn of wanneer automatische acties ongecontroleerd escaleren.
Thwart (NL Voorkomen en dwarsbomen) richt zich op een realiteit die compliance steeds vaker raakt: aanvallers gebruiken AI om sneller, gerichter en schaalbaarder te opereren. Phishing, malware-ontwikkeling en aanvalsplanning worden efficiënter, waardoor ook minder geavanceerde dreigingsactoren plots een groter bereik krijgen.
De brug tussen NIS2, ISO 42001 en de EU AI Act
Wat het Cyber AI Profile bijzonder relevant maakt voor NIS2, is dat het precies inspeelt op thema’s waar veel organisaties vandaag mee worstelen: governance, supply chain-beheersing en incidentrespons.
ISO/IEC 42001 biedt organisaties een AI Management System om AI-governance structureel te organiseren: beleid, rollen, risicoanalyse, audits en continue verbetering. De EU AI Act daarentegen legt juridisch afdwingbare verplichtingen op, afhankelijk van de risicoklasse van een AI-systeem, zoals documentatie, logging, menselijke controle en robuustheid.
Het Cyber AI Profile positioneert zich niet als concurrent van deze kaders, maar als operationele verdieping. Het vertaalt AI-governance en wettelijke verplichtingen naar concrete cybersecurity-uitkomsten. Denk aan expliciete aandacht voor AI-supply chains, waarbij niet alleen softwareleveranciers, maar ook datasets en modelcomponenten als kritische afhankelijkheden worden beschouwd.
Een opvallend voorbeeld is het concept van een AI Software Bill of Materials (AI SBOM)*. Net zoals NIS2 inzet op transparantie in de IT-supply chain, vraagt NIST om inzicht in welke modellen, datasets en externe AI-diensten een organisatie gebruikt. Dit sluit naadloos aan bij NIS2-vereisten rond ketenrisico’s, zonder dat NIS2 expliciet over AI hoeft te spreken.
Waarom dit ook belangrijk is voor NIS2-implementatie
Voor veel NIS2-plichtige organisaties blijft AI vandaag een “grijs gebied”: te belangrijk om te negeren, maar te complex om goed te beheersen. Het Cyber AI Profile biedt hier een praktisch houvast. Het maakt duidelijk dat AI niet alleen een compliance-vraagstuk is, maar ook een nieuwe attack surface die expliciet in risicobeheer en incidentrespons moet worden opgenomen.

Daarmee verschuift de focus van “hebben we AI in gebruik?” naar “begrijpen we hoe AI onze cyberweerbaarheid beïnvloedt?”.
De toegevoegde waarde voor CATS Dirigent
Voor een GRC- en ISMS-platform zoals CATS Dirigent ligt hier een duidelijke meerwaarde. Het Cyber AI Profile maakt het mogelijk om AI-risico’s niet als losstaand thema te behandelen, maar als een integraal onderdeel van NIS2-governance.
Concreet kan Dirigent:
- AI-specifieke cybercontrols koppelen aan bestaande NIS2-maatregelen en andere regelgeving waaraan het bedrijf moet voldoen.
- AI-systemen, datasets en leveranciers beheren als expliciete assets binnen supply-chain-beheer.
- Evidence verzamelen rond AI-gebruik, beperkingen en fallback-procedures, relevant voor zowel ISO 42001 als de EU AI Act.
- Incidentrespons uitbreiden met AI-afhankelijkheden en externe AI-dienstverleners.
- Bestuursrapportages en universele policies bieden die NIS2, ISO 42001, AI Act en het Cyber AI Profile samenbrengen in één overzicht.
Zo evolueert NIS2-compliance van een statische checklist naar een dynamisch governance-instrument, klaar voor een realiteit waarin AI zowel verdediger als aanvaller kan zijn.
Conclusie
Het Cyber AI Profile van NIST laat zien dat AI en cybersecurity niet langer afzonderlijke domeinen zijn. Voor NIS2-plichtige organisaties vormt het een ontbrekende schakel tussen wetgeving, managementsystemen en operationele cyberweerbaarheid. Voor platformen zoals CATS Dirigent biedt het een kans om “AI-ready NIS2” concreet, meetbaar en bestuurbaar te maken.
Bronnen
- NIST – Cyber AI Profile (NIST IR 8596, Draft)
https://csrc.nist.gov/publications/detail/nist-ir/8596/draft - NIST – Cybersecurity Framework 2.0
https://www.nist.gov/cyberframework - ISO/IEC 42001:2023 – Artificial Intelligence Management System
https://www.iso.org/standard/81230.html - EU AI Act – Regulation (EU) 2024/1689
https://artificialintelligenceact.eu - NIS2 Directive – Directive (EU) 2022/2555
https://eur-lex.europa.eu/eli/dir/2022/2555/oj
*Toelichting:
Wat is een AI Software Bill of Materials (AI SBOM) – in gewone taal

Een AI SBOM is in essentie een overzichtslijst van wat er “onder de motorkap” van een AI-systeem zit.
Waar een klassieke SBOM beschrijft welke softwarecomponenten in een applicatie zitten, gaat een AI SBOM een stap verder en beantwoordt drie kernvragen:
- Waaruit bestaat ons AI-systeem echt?
- Van wie zijn die onderdelen afkomstig?
- Welke risico’s brengen die onderdelen met zich mee?
Voor management betekent dit:
“Kunnen wij uitleggen welke AI we gebruiken, waar die vandaan komt en wat de impact is als er iets misgaat?”
Dat is exact de vraag die vandaag gesteld wordt door: toezichthouders (NIS2, AI Act), klanten, auditors, én bestuurders die eindverantwoordelijk zijn.
Waarom is dit belangrijk voor NIS2 en bestuurders?
NIS2 vraagt expliciet om controle over de supply chain en kennis van kritische afhankelijkheden.
AI-systemen zijn zulke afhankelijkheden, maar vaak onzichtbaar:
- Ze draaien in de cloud van derden
- Ze gebruiken externe modellen (bv. via API’s)
- Ze verwerken data die niet intern werd gegenereerd
Een AI SBOM maakt dit zichtbaar en bestuurbaar.
Voor management is het geen technisch document, maar een governance-instrument:
- het ondersteunt risico-beslissingen,
- het helpt bij incidenten,
- het beschermt bestuurders tegen “we wisten het niet”.

Wat staat er typisch in een AI SBOM?
In managementtaal bevat een AI SBOM minimaal:
- Welk AI-systeem gebruiken we en waarvoor?
- Welke modellen zitten erin? (eigen model, extern model, leverancier)
- Welke data worden gebruikt? (bron, type, gevoeligheid)
- Waar draait het systeem? (cloud, regio, derde partij)
- Wat gebeurt er als het faalt of wordt misbruikt?
- Wie is verantwoordelijk? (intern en extern)
Je kan het zien als een “paspoort” van elk AI-systeem.
Concreet voorbeeld – herkenbaar voor management
Situatie
Een middelgrote dienstverlener gebruikt AI voor:
- automatische e-mailclassificatie,
- klantondersteuning via chat,
- interne rapportage.
Zonder AI SBOM
Tijdens een cyberincident blijkt dat:
- de AI-chatbot een extern taalmodel gebruikt,
- trainingsdata gedeeltelijk van een derde partij komt,
- niemand exact weet welke data waar zijn verwerkt.
Gevolg:
- vertraging in incidentrespons,
- onduidelijkheid richting klanten en toezichthouder,
- verhoogd bestuurlijk risico.
Met AI SBOM
Het management kan onmiddellijk zeggen:
“Onze chatbot gebruikt een extern taalmodel van leverancier X, draait in datacenter Y, verwerkt geen persoonsgegevens en heeft een fallback naar handmatige afhandeling.”
Dat verschil is cruciaal bij NIS2-incidentmelding en reputatiebeheer.
Voorbeeld van een AI SBOM (vereenvoudigd)
| Onderdeel | Inhoud |
| AI-systeem | Klantenservice Chatbot |
| Doel | Beantwoorden van standaardvragen |
| AI-model | Extern LLM via API |
| Leverancier | Cloudprovider X |
| Data | Geen persoonsgegevens, enkel FAQ-content |
| Hosting | EU-datacenter |
| Kriticiteit | Middel |
| Fallback | Menselijke operator |
| Verantwoordelijke | Head of IT |
Voor management is dit leesbaar in één oogopslag.
Waarom dit extra waardevol is voor CATS Dirigent
Binnen CATS Dirigent kan een AI SBOM:
- gekoppeld worden aan NIS2-risico’s en controls,
- automatisch worden meegenomen in leveranciersbeheer,
- gebruikt worden als evidence bij audits (NIS2, ISO 42001, AI Act),
- ingezet worden bij incidentrespons en meldplicht.
Zo wordt AI geen “black box”, maar een beheerbaar bedrijfsobject, net zoals applicaties, leveranciers en kritische processen.
Samengevat:
Een AI SBOM geeft bestuur en management inzicht in welke AI ze gebruiken, van wie die komt en wat de impact is als er iets misgaat — en dat is essentieel voor NIS2, de AI Act en verantwoord bestuur.








