No products added!
EU’s AI-forordning (EU AI Act) er ved at blive et fast holdepunkt for, hvordan virksomheder kan bruge kunstig intelligens ansvarligt og samtidig bevare tempoet i innovationen. For mange handler det ikke om at bremse AI, men om at gøre brugen mere robust: klarere ansvar, bedre dokumentation og færre ubehagelige overraskelser, når et system skaleres, købes ind eller ændrer adfærd i drift.
En stærk compliance-indsats kan bygges som et forretningsprojekt med tydelige leverancer: overblik over alle AI-systemer, korrekt risikoklassificering, en gap-analyse op imod kravene og et roadmap, der passer til både deadlines og organisationens modenhed.
Hvad EU AI Act betyder for virksomheder
AI Act er risikobaseret. Det betyder, at indsatsen skal stå mål med, hvor stor påvirkning et AI-system kan få på mennesker, sikkerhed og fundamentale rettigheder. Samtidig skelner forordningen mellem roller, typisk udbyder (provider) og anvender (deployer). Mange virksomheder er “anvender” af tredjepartsløsninger, men får stadig et tydeligt ansvar for, at brugen er lovlig, gennemsigtig og kontrolleret.
Det praktiske skifte ses især tre steder: indkøb af AI, drift af AI og dokumentation. Når AI bliver en del af kerneprocesser som rekruttering, kredit, uddannelse, sundhed eller adgang til ydelser, bevæger man sig hurtigt i retning af højrisiko med væsentligt strengere krav.
AI Act står heller ikke alene. GDPR, cybersikkerhed, sektorkrav og kontraktstyring skal spille sammen med AI-kravene, så styring og kontrol hænger sammen på tværs af tekniske og juridiske spor.
Fra overblik til plan: den praktiske arbejdsgang
En effektiv tilgang starter med at gøre det komplekse overskueligt, uden at miste præcisionen. Det kræver både tværfaglighed og en metode, der kan gentages, når nye use cases opstår.
En typisk arbejdsgang kan struktureres sådan:
- Inventar og “AI-kort”: Kortlæg alle AI-systemer, herunder indkøbte værktøjer, interne modeller, copilots, chatbots og automatiseringer med ML-komponenter.
- Risikoklassificering: Vurder om et system er forbudt, højrisiko, begrænset risiko eller minimal risiko, og dokumentér begrundelsen.
- Gap-analyse: Sammenhold nuværende praksis med krav til data governance, transparens, risikostyring, logning, teknisk dokumentation og governance.
- Roadmap og prioritering: Planlæg aktiviteter, ejerskab og ressourcer med fokus på de mest kritiske systemer først.
- Drift, kontrol og læring: Etablér løbende monitorering, incident-håndtering, auditspor og opdateringer af risikovurderinger, når systemet ændrer sig.
Gap-analyse: hvad mangler, og hvad skal kunne bevises?
En gap-analyse for EU AI Act handler ikke kun om politikker, men om sporbarhed og beviser: Kan virksomheden dokumentere datagrundlag, tests, beslutninger og kontrolforanstaltninger i hele livscyklussen?
For højrisiko-systemer vil der typisk være fokus på datakvalitet og datastyring (herunder bias-arbejde), transparensforpligtelser (bl.a. krav om at oplyse, når mennesker interagerer med AI, og mærkning af syntetisk indhold), løbende risikostyring, logning og teknisk dokumentation før markedsføring eller ibrugtagning. Kvalitetsstyring og klare ansvarslinjer bliver et centralt ledelsesværktøj, ikke kun en formalitet.
Indkøb og leverandørstyring bør indgå direkte i analysen. Når AI kommer fra en tredjepart, skal virksomheden stadig kunne vise, at der er foretaget due diligence, at kontrakter understøtter kravene, og at der er styr på ændringer i model og funktionalitet. Ellers opstår “skygge-AI”, som er svær at styre og næsten umulig at dokumentere bagefter.
Nedenfor er eksempler på spørgsmål, der ofte afklarer de største gab:
- Datagrundlag: Hvilke datasæt træner og tester vi på, og kan vi vise repræsentativitet, fejlretning og egnethed til formålet?
- Transparens: Hvor og hvordan informeres brugere og berørte personer om AI, og er mærkning af AI-genereret indhold teknisk implementeret?
- Risikostyring: Hvilke kendte og forudsigelige risici har vi identificeret, og hvilke kontroller reducerer dem i design, test og drift?
- Dokumentation: Findes der teknisk dokumentation, der kan afleveres ved tilsyn, og er den opdateret efter ændringer?
- Logning og overvågning: Hvad logger vi, hvor længe, og kan vi rekonstruere hændelser, fejl og beslutningsveje?
Risikoklassificering: hurtig klarhed uden at forsimple
Risikoklassificeringen er den beslutning, der styrer resten af indsatsen. Den bør derfor være sporbar og konsekvent, gerne med en fast skabelon og en tværfaglig review-proces (forretning, IT, jura, sikkerhed).
Her er en praktisk oversigt, som ofte bruges i interne drøftelser:
| Risikoniveau | Hvad betyder det? | Typiske eksempler i virksomheder | Konsekvens for indsats |
|---|---|---|---|
| Uacceptabel risiko | Forbudte praksisser | Manipulation, udnyttelse af sårbarhed, visse former for social scoring | Stop, redesign eller afvikling |
| Høj risiko | Omfattet af bilag og/eller høj påvirkning | Rekruttering, kreditvurdering, adgang til uddannelse, kritisk infrastruktur | Strenge krav, formelle processer, stærk dokumentation |
| Begrænset risiko | Primært transparenskrav | Chatbots, generativt indhold, visse deepfake-scenarier | Oplysningspligt, mærkning, interne kontroller |
| Minimal risiko | Ingen særlige AI Act-krav ud over anden lovgivning | Intern effektivisering med lav påvirkning | God praksis, proportionelle kontroller |
Klassificering er ikke en engangsøvelse. Når et system får nyt datasæt, ny model, nye brugere eller ny kontekst, kan risikoprofilen flytte sig, og så skal vurderingen opdateres.
Roadmap med milepæle frem mod 2026 og 2027
Roadmap’et gør compliance styrbart. Det bør koble lovens ikrafttrædelsesfaser med virksomhedens egne leverancer, så teamet ved, hvad der skal være på plads hvornår, og hvem der ejer hvad.
Et roadmap kan med fordel tage udgangspunkt i centrale datoer i implementeringen:
| Milepæl | Hvad bør være klart internt | Eksempel på leverancer |
|---|---|---|
| 2. feb 2025 | Forbudte praksisser og AI-litteracy som fast krav | AI-policy, træningspakker, stopliste for use cases |
| 2. aug 2025 | Regler for generelle AI-modeller og øget tilsynsberedskab | Kontraktkrav til leverandører, mærkning af syntetisk indhold, governance-setup |
| 2. aug 2026 | De fleste krav til højrisiko-systemer | QMS-tiltag, teknisk dokumentation, logning, risikostyring, interne audits |
| 2. aug 2027 | Yderligere regler for højrisiko-AI i regulerede produkter | Tilpasning til sektorregler, udvidet konformitetsarbejde |
Prioriteringen bør være konsekvent: høj påvirkning først, derefter de systemer der er mest synlige for kunder, borgere eller medarbejdere, og til sidst resten af porteføljen.
Governance og kompetencer: AI-litteracy som driftsdisciplin
Når AI bliver forretningskritisk, bliver AI-litteracy en del af driften på linje med informationssikkerhed og databeskyttelse. Det gælder både ledelsen, der skal kunne stille de rigtige spørgsmål, og fagteams, der skal kunne dokumentere og kontrollere.
Træning virker bedst, når den er rollebaseret og knyttet til egne cases:
- Grundprincipper i EU AI Act
- Risikoklassificering og bilag III-tolkning
- Data governance, bias og testdesign
- Transparens, mærkning og brugerinformation
- Leverandørstyring og kontraktkrav
- Logging, auditspor og incident-håndtering
Sådan kan Nordisk Business Academy støtte jeres compliance-arbejde
Nordisk Business Academy tilbyder praksisnære, AI-integrerede kompetenceforløb, der hjælper virksomheder med at omsætte EU AI Act til konkrete arbejdsgange. Fokus ligger på at kunne handle sikkert i hverdagen: fra inventar over risikovurdering til dokumentation og drift.
Forløb kan tilrettelægges, så både specialister og generalister løfter i flok. Mange vælger at kombinere online læring i eget tempo med live workshops, hvor egne systemer gennemgås, og hvor gap-analyse og roadmap bliver til reelle leverancer, der kan bruges i styring, audit og dialog med leverandører.
Certificering og opdaterede materialer gør det lettere at fastholde en fælles standard internt, også når nye AI-projekter opstår, eller når organisationen udvider brugen af generative modeller i marketing, kundeservice, HR eller produktudvikling.

