No products added!
Når et AI-produkt bevæger sig ind i et højrisikoområde, ændrer udviklingsarbejdet karakter. Det er ikke længere nok, at modellen virker, scorer godt i test og kan sættes i drift. Teamet skal også kunne dokumentere valg, styre risici, etablere menneskeligt tilsyn og vise, at løsningen er bygget til stabil drift, sporbarhed og kontrol.
Et praksisnært kursus for udviklere, produktansvarlige og tekniske beslutningstagere giver derfor mest værdi, når jura, arkitektur, dataarbejde og releaseprocesser kobles tæt sammen. Målet er ikke at gøre udvikling tungere. Målet er at gøre den mere robust, mere styrbar og langt lettere at stå på mål for.
Når reglerne skal ind i udviklingsflowet
EU AI Act stiller markante krav til højrisiko AI-systemer. Det gælder blandt andet risikostyring, datastyring, teknisk dokumentation, logning, transparens, menneskelig overvågning, robusthed og et formaliseret kvalitetssystem. For produkt- og udviklingsteams betyder det, at compliance ikke kan ligge som et bilag efter release. Den skal bygges ind i arbejdsgangen fra første afgrænsning af use case.
På kurset arbejdes der med, hvordan lovkrav omsættes til konkrete handlinger i backlog, sprintplanlægning, test, godkendelser og drift. Det gør stoffet relevant for teams, der både bygger egne løsninger, tilpasser tredjepartsmodeller eller integrerer AI i eksisterende produkter.
Efter introduktion til krav og risikologik vil et stærkt forløb typisk samle deltagerne om temaer som:
- Klassifikation: Er løsningen højrisiko, begrænset risiko eller uden for de mest belastede kategorier?
- Risikostyring: Hvordan opdages og håndteres fejlscenarier, bias, driftsafvigelser og påvirkning af rettigheder?
- Teknisk dokumentation
- Logning og sporbarhed
- Menneskeligt tilsyn: Hvem skal kunne gribe ind, stoppe, overprøve eller eskalere?
- Test for robusthed og sikkerhed
Højrisiko-krav omsat til teamets hverdag
Det afgørende er sjældent selve paragraffen. Det afgørende er, hvad den betyder i produktarbejdet mandag morgen. Mange teams har allerede dele af fundamentet på plads gennem QA, informationssikkerhed, DevOps og dokumentationspraksis. Kurset samler disse spor, så de matcher AI Act i stedet for at leve hver for sig.
Det giver et mere modent setup, hvor compliance bliver en del af kvaliteten og ikke en særskilt kontroløvelse til sidst.
| Kravområde | Hvad det betyder | Praktisk handling i teamet |
|---|---|---|
| Risikostyring | Løbende identifikation og afbødning af skadevirkninger | Risikoregister, faste review-punkter ved design og release |
| Datastyring | Kontrol med trænings-, validerings- og testdata | Datasheets, datakilder, bias-tjek, versionsstyring |
| Teknisk dokumentation | Dokumentation før ibrugtagning og ved ændringer | Model cards, arkitekturdiagrammer, testprotokoller, change-log |
| Logning | Sporbarhed i brug og drift | Audit trail, hændelseslogs, registrering af input/output og versioner |
| Transparens | Klare instruktioner og kendte begrænsninger | Brugsvejledninger, UI-tekster, driftsinstrukser |
| Menneskeligt tilsyn | Mennesker skal kunne forstå og reagere | Godkendelsesflows, eskalationsveje, stopmekanismer |
| Robusthed og sikkerhed | Stabilitet, nøjagtighed og beskyttelse mod angreb | Red-team tests, validering, adgangskontrol, fail-safe design |
| Kvalitetssystem | Formaliserede procedurer på tværs af livscyklus | Roller, godkendelser, dokumentstyring, post-market overvågning |
Teknisk dokumentation, der følger releaseflowet
Et af de områder, hvor mange teams mister fart, er dokumentation. Ikke fordi dokumentation er uvigtig, men fordi den ofte bliver håndteret for sent. Når teknisk dokumentation først starter efter modeltræning, bliver den dyr, fragmenteret og svær at holde ajour.
Kurset viser, hvordan dokumentation kan bygges ind i det, teamet allerede gør. Arkitekturvalg kan samles i beslutningsnoter. Datasæt kan beskrives med faste skabeloner. Eksperimenter, metrics og modelversioner kan hentes fra eksisterende MLOps- eller CI/CD-værktøjer. Testresultater kan kobles direkte til releasekriterier. På den måde bliver dokumentation et levende spor gennem hele udviklingsforløbet.
Deltagerne arbejder også med, hvad en stærk dokumentationspakke bør indeholde: systembeskrivelse, tilsigtet formål, datagrundlag, validering, risikovurderinger, logik for menneskeligt tilsyn, ændringshistorik og plan for overvågning efter ibrugtagning. Det er netop denne sammenhæng, der gør det muligt at vise, at løsningen ikke alene er teknisk velfungerende, men også styrbar og forsvarlig.
Roller, governance og kontrolpunkter
AI-compliance lykkes sjældent, når alt ansvar placeres ét sted. Produktteamet ejer sjældent hele billedet alene, og juridiske funktioner kan ikke drive den tekniske implementering uden tæt samarbejde. Kurset lægger derfor vægt på tværgående arbejdsformer, hvor produkt, udvikling, data, sikkerhed, drift og governance arbejder ud fra samme model.
Det skaber klarhed om, hvem der beslutter hvad, og hvornår et AI-system må gå videre til næste fase.
Et typisk governance-setup vil ofte omfatte:
- Produktansvarlig
- Tech lead eller arkitekt
- Dataansvarlig
- QA eller testansvarlig
- Compliance eller juridisk funktion
Og lige så vigtigt er de faste kontrolpunkter i processen:
- Før designgodkendelse: Klassifikation af use case, første risikovurdering og afgrænsning af ansvar
- Før modeltræning: Datakilder, datakvalitet, tilladelser og dokumentationsstruktur er på plads
- Før release: Test, dokumentation, logning og instruktioner er godkendt
- Efter ibrugtagning: Overvågning, hændelsesstyring og ændringskontrol er aktiveret
Sådan er kurset bygget op
Et godt forløb for udviklere skal være tæt på virkeligheden. Derfor er undervisningen bygget op omkring cases, skabeloner og arbejdsgange, som kan bruges direkte i produktteams. Deltagerne arbejder med klassifikation af AI-løsninger, vurdering af højrisikoscenarier, krav til teknisk dokumentation og opbygning af interne processer, der kan holde i drift.
Der er også fokus på samspillet med beslægtede områder som GDPR, informationssikkerhed, leverandørstyring og interne godkendelsesprocedurer. Det gør kurset relevant for organisationer, der vil skabe ét samlet styringsspor frem for flere parallelle.
Formatet kan tilpasses behovet. Nogle teams har brug for en koncentreret workshop med fælles afklaring og hurtige beslutninger. Andre har mere gavn af et modulopbygget onlineforløb, hvor deltagerne kan arbejde i eget tempo og bruge læringen direkte i igangværende projekter. Når undervisningen kombineres med certificering, cases og opdaterede materialer, bliver udbyttet både fagligt og operationelt.
Hvem får mest værdi af forløbet?
Kurset er relevant for teams, der udvikler, tilpasser, integrerer eller godkender AI-løsninger med reel påvirkning på mennesker, processer eller adgang til ydelser. Det gælder blandt andet softwareudviklere, machine learning engineers, product owners, QA-specialister, tech leads, projektledere og fagpersoner med ansvar for governance.
Det er også særligt nyttigt for organisationer, der vil flytte sig fra generelle AI-politikker til konkrete arbejdsgange. Når et team kan klassificere løsninger tidligt, dokumentere løbende, teste mere målrettet og styre ændringer systematisk, bliver AI Act ikke en bremse. Den bliver en ramme for bedre produktudvikling.
Et praksisnært onlineforløb med skabeloner, certificering og virkelige cases giver teams mulighed for at omsætte kravene direkte til stærkere releaseflow, tydeligere ansvar og mere sikker drift.

