No products added!
Når AI flytter fra eksperimenter til daglig drift, bliver styring lige så vigtig som idéen. En klar governance-ramme gør det trygt at bruge AI på tværs af organisationen, uden at innovationen går i stå i lange godkendelsesrunder eller uklare ansvarskæder.
Hos Nordisk Business Academy tilbyder vi en praksisnær workshop, der samler ledelse, forretning, IT og compliance om et fælles sæt interne AI-politikker, roller, kontroller og dokumentationskrav. Resultatet er et styringsgrundlag, der kan bruges med det samme og opdateres i takt med, at teknologien og kravene ændrer sig.
Hvad en AI-governance-workshop giver jer
En workshop i AI-governance handler om at gøre ansvarlig AI konkret. I får et fælles sprog for risici, gennemsigtighed, databeskyttelse og kvalitet, så teams kan arbejde hurtigt uden at arbejde “blindt”.
Typisk er der tre udfordringer, vi løser i samme greb: manglende overblik over AI-brug, uens praksis mellem afdelinger og usikkerhed om, hvem der godkender hvad. Når de tre punkter falder på plads, bliver det lettere at skalere AI-indsatsen og dokumentere den over for både kunder, medarbejdere og tilsyn.
Efter en indledende afklaring samler workshoppen trådene i et styringsdesign, hvor politik, proces og kontrol hænger sammen med jeres eksisterende governance for IT, sikkerhed og data.
I praksis ender mange med at prioritere følgende leverancer fra dagen:
- AI-principper og interne retningslinjer
- Godkendelsesflow for nye use cases
- Skabeloner til risikovurdering og dokumentation
- Model- og use case-register (AI-inventar)
- Roller og ansvar (inkl. RACI)
Hvem deltager, og hvordan vi gør det praktisk
Workshoppen kan afholdes som et intensivt online-forløb eller som en delt session over flere moduler, så der er tid til intern sparring mellem møderne. Formatet vælges efter modenhed og tempo i organisationen.
Deltagerkredsen er bevidst tværfaglig. AI påvirker jura, drift, HR, marketing, læring, kundeservice og it-sikkerhed, også når AI “kun” bruges til tekst, billeder, analyse eller beslutningsstøtte. Når de rigtige roller er i rummet, kan I træffe valg, der holder i hverdagen.
Indhold og metode: fra principper til interne politikker
Vi starter med at kortlægge jeres aktuelle og planlagte AI-anvendelser, også de små: automatisering i regneark, generative assistenter, integrationsbots og analyser. Herefter klassificeres use cases efter risiko og påvirkning, så krav om kontrol og dokumentation matcher virkeligheden.
Derfra omsætter vi principper til politik, der kan håndhæves. En intern AI-politik virker først, når den beskriver adfærd og beslutningspunkter, ikke kun intentioner. Vi arbejder med enkle regler, der kan læses af både specialister og ikke-specialister.
Typiske politikområder, der bliver besluttet eller skitseret i workshoppen:
- Formål og grænser: Hvilke opgaver må AI løse, og hvilke må den ikke røre?
- Data og fortrolighed: Hvilke datatyper må bruges, og hvor?
- Kvalitet og test: Hvilke testkrav gælder før idriftsættelse?
- Human-in-the-loop: Hvornår kræves menneskelig kontrol og godkendelse?
- Tredjeparter: Krav til leverandører, værktøjer og kontraktvilkår
Roller, ansvar og beslutningsveje
En robust AI-styring kræver tydelige ejerskaber. Ikke flere møder, bare klarhed: Hvem kan starte et AI-initiativ, hvem skal godkende det, og hvem har pligt til at stoppe det, hvis krav ikke er opfyldt?
Vi bygger en rollemodel, der passer til jeres størrelse og struktur. I nogle organisationer giver det mening med en udpeget AI-ansvarlig. I andre fungerer et tværgående AI-råd bedre. Det afgørende er, at ansvar og beføjelser kan efterprøves.
Nedenfor ses et eksempel på, hvordan roller, beslutninger og dokumentation kan kobles sammen.
| Rolle | Primært ansvar | Typiske beslutninger | Centrale artefakter |
|---|---|---|---|
| Ledelsessponsor | Retning og risikovillighed | Godkender principper og risikoniveau | AI-principper, eskalationsregler |
| AI-ansvarlig / AI-programleder | Koordinering og drift af governance | Prioriterer use cases til review | AI-register, governance-rapportering |
| Dataansvarlig (CDO-lign.) | Datakvalitet og dataregler | Godkender datakilder og adgang | Datasheets, dataklassifikation |
| DPO / compliance | Privatliv og lovkrav | Kræver DPIA eller afviser behandling | DPIA, behandlingsgrundlag, logkrav |
| IT- og sikkerhedsansvarlig | Teknisk kontrol og adgang | Godkender driftsetup og sikkerhed | RBAC, audit logs, sikkerhedstests |
| Model- eller produktansvarlig | Modelperformance og ændringer | Godkender release og retræning | Modelkort, eval-rapporter, changelog |
Kontroller og dokumentation der kan tåle audit
Dokumentation er ikke papirarbejde for papirarbejdets skyld. Den gør det muligt at forklare, hvorfor en model opfører sig, som den gør, og hvad der blev testet, før den blev sat i drift. Den gør også fejl nemmere at rette, fordi datagrundlag, versioner og beslutninger kan spores.
Vi designer kontroller, der passer til risikoniveauet. Lave risici skal ikke have samme proces som højrisiko. Til gengæld skal også små AI-løsninger have minimale sikkerhedsregler, så der ikke opstår “skjult AI” i afdelingerne.
En praktisk kontrolpakke kan indeholde:
- Adgangsstyring og logning af kritiske handlinger
- Release-gates: “ingen drift uden opdateret dokumentation”
- Overvågning af performance og drift (data- og modeldrift)
- Periodiske reviews og hændelsesproces ved afvigelser
Eksempel på dokumentationspakke pr. use case
Nogle har brug for skabeloner, andre har brug for en standard, der kan bygges ind i MLOps og kvalitetsledelse. Workshoppen kan munde ud i et “minimumssæt”, som udvides for højrisiko-use cases.
| Dokumenttype | Hvad den indeholder | Hvornår den opdateres |
|---|---|---|
| Use case-brief | Formål, målgruppe, påvirkning, begrænsninger | Ved ændret scope |
| Dataoversigt | Kilder, dataklasser, behandling, retention | Ved nye kilder eller felter |
| Modelkort | Modelvalg, træning, kendte svagheder, brugsvilkår | Ved ny version |
| Evalueringsrapport | Test, robusthed, fairness-målepunkter, acceptkriterier | Før release og ved retræning |
| Driftslog og changelog | Versioner, hændelser, godkendelser, rollback | Løbende |
Efter workshoppen: implementering, træning og måling
Governance virker, når den bliver en del af arbejdsgangen. Derfor planlægger vi typisk de første 30 til 60 dage efter workshoppen: hvem gør hvad, hvilke skabeloner skal i brug først, og hvilke use cases skal i governance-sporet som pilot.
Træning er ofte den hurtigste måde at skabe ens praksis på. Rollebaseret læring gør, at jurister ikke drukner i teknik, og teknikere ikke drukner i paragraffer. Samtidig får forretningen konkrete eksempler på, hvordan man bestiller og bruger AI ansvarligt.
Mange vælger at måle indførelsen med få, tydelige nøgletal, så fremdrift kan ses og rapporteres:
- Dækningsgrad: Andel af AI-use cases registreret i AI-register
- Procesoverholdelse: Andel af releases med gennemført review og godkendelse
- Dokumentationskvalitet: Andel med udfyldt modelkort, dataoversigt og eval-rapport
Vil I bruge AI med høj fart og høj tillid, er en workshop et stærkt første skridt. Nordisk Business Academy kan tilpasse forløbet til jeres organisation, branche og modenhed, og vi kan koble workshoppen med online kompetenceforløb og certificering, så governance bliver til fælles praksis, ikke kun et dokument.

