Workshop: AI governance og interne AI-politikker – roller, kontrol og dokumentation

Når AI flytter fra eksperimenter til daglig drift, bliver styring lige så vigtig som idéen. En klar governance-ramme gør det trygt at bruge AI på tværs af organisationen, uden at innovationen går i stå i lange godkendelsesrunder eller uklare ansvarskæder.

Hos Nordisk Business Academy tilbyder vi en praksisnær workshop, der samler ledelse, forretning, IT og compliance om et fælles sæt interne AI-politikker, roller, kontroller og dokumentationskrav. Resultatet er et styringsgrundlag, der kan bruges med det samme og opdateres i takt med, at teknologien og kravene ændrer sig.

Hvad en AI-governance-workshop giver jer

En workshop i AI-governance handler om at gøre ansvarlig AI konkret. I får et fælles sprog for risici, gennemsigtighed, databeskyttelse og kvalitet, så teams kan arbejde hurtigt uden at arbejde “blindt”.

Typisk er der tre udfordringer, vi løser i samme greb: manglende overblik over AI-brug, uens praksis mellem afdelinger og usikkerhed om, hvem der godkender hvad. Når de tre punkter falder på plads, bliver det lettere at skalere AI-indsatsen og dokumentere den over for både kunder, medarbejdere og tilsyn.

Efter en indledende afklaring samler workshoppen trådene i et styringsdesign, hvor politik, proces og kontrol hænger sammen med jeres eksisterende governance for IT, sikkerhed og data.

I praksis ender mange med at prioritere følgende leverancer fra dagen:

Hvem deltager, og hvordan vi gør det praktisk

Workshoppen kan afholdes som et intensivt online-forløb eller som en delt session over flere moduler, så der er tid til intern sparring mellem møderne. Formatet vælges efter modenhed og tempo i organisationen.

Deltagerkredsen er bevidst tværfaglig. AI påvirker jura, drift, HR, marketing, læring, kundeservice og it-sikkerhed, også når AI “kun” bruges til tekst, billeder, analyse eller beslutningsstøtte. Når de rigtige roller er i rummet, kan I træffe valg, der holder i hverdagen.

Indhold og metode: fra principper til interne politikker

Vi starter med at kortlægge jeres aktuelle og planlagte AI-anvendelser, også de små: automatisering i regneark, generative assistenter, integrationsbots og analyser. Herefter klassificeres use cases efter risiko og påvirkning, så krav om kontrol og dokumentation matcher virkeligheden.

Derfra omsætter vi principper til politik, der kan håndhæves. En intern AI-politik virker først, når den beskriver adfærd og beslutningspunkter, ikke kun intentioner. Vi arbejder med enkle regler, der kan læses af både specialister og ikke-specialister.

Typiske politikområder, der bliver besluttet eller skitseret i workshoppen:

  • Formål og grænser: Hvilke opgaver må AI løse, og hvilke må den ikke røre?
  • Data og fortrolighed: Hvilke datatyper må bruges, og hvor?
  • Kvalitet og test: Hvilke testkrav gælder før idriftsættelse?
  • Human-in-the-loop: Hvornår kræves menneskelig kontrol og godkendelse?
  • Tredjeparter: Krav til leverandører, værktøjer og kontraktvilkår

Roller, ansvar og beslutningsveje

En robust AI-styring kræver tydelige ejerskaber. Ikke flere møder, bare klarhed: Hvem kan starte et AI-initiativ, hvem skal godkende det, og hvem har pligt til at stoppe det, hvis krav ikke er opfyldt?

Vi bygger en rollemodel, der passer til jeres størrelse og struktur. I nogle organisationer giver det mening med en udpeget AI-ansvarlig. I andre fungerer et tværgående AI-råd bedre. Det afgørende er, at ansvar og beføjelser kan efterprøves.

Nedenfor ses et eksempel på, hvordan roller, beslutninger og dokumentation kan kobles sammen.

RollePrimært ansvarTypiske beslutningerCentrale artefakter
LedelsessponsorRetning og risikovillighedGodkender principper og risikoniveauAI-principper, eskalationsregler
AI-ansvarlig / AI-programlederKoordinering og drift af governancePrioriterer use cases til reviewAI-register, governance-rapportering
Dataansvarlig (CDO-lign.)Datakvalitet og datareglerGodkender datakilder og adgangDatasheets, dataklassifikation
DPO / compliancePrivatliv og lovkravKræver DPIA eller afviser behandlingDPIA, behandlingsgrundlag, logkrav
IT- og sikkerhedsansvarligTeknisk kontrol og adgangGodkender driftsetup og sikkerhedRBAC, audit logs, sikkerhedstests
Model- eller produktansvarligModelperformance og ændringerGodkender release og retræningModelkort, eval-rapporter, changelog

Kontroller og dokumentation der kan tåle audit

Dokumentation er ikke papirarbejde for papirarbejdets skyld. Den gør det muligt at forklare, hvorfor en model opfører sig, som den gør, og hvad der blev testet, før den blev sat i drift. Den gør også fejl nemmere at rette, fordi datagrundlag, versioner og beslutninger kan spores.

Vi designer kontroller, der passer til risikoniveauet. Lave risici skal ikke have samme proces som højrisiko. Til gengæld skal også små AI-løsninger have minimale sikkerhedsregler, så der ikke opstår “skjult AI” i afdelingerne.

En praktisk kontrolpakke kan indeholde:

  • Adgangsstyring og logning af kritiske handlinger
  • Release-gates: “ingen drift uden opdateret dokumentation”
  • Overvågning af performance og drift (data- og modeldrift)
  • Periodiske reviews og hændelsesproces ved afvigelser

Eksempel på dokumentationspakke pr. use case

Nogle har brug for skabeloner, andre har brug for en standard, der kan bygges ind i MLOps og kvalitetsledelse. Workshoppen kan munde ud i et “minimumssæt”, som udvides for højrisiko-use cases.

DokumenttypeHvad den indeholderHvornår den opdateres
Use case-briefFormål, målgruppe, påvirkning, begrænsningerVed ændret scope
DataoversigtKilder, dataklasser, behandling, retentionVed nye kilder eller felter
ModelkortModelvalg, træning, kendte svagheder, brugsvilkårVed ny version
EvalueringsrapportTest, robusthed, fairness-målepunkter, acceptkriterierFør release og ved retræning
Driftslog og changelogVersioner, hændelser, godkendelser, rollbackLøbende

Efter workshoppen: implementering, træning og måling

Governance virker, når den bliver en del af arbejdsgangen. Derfor planlægger vi typisk de første 30 til 60 dage efter workshoppen: hvem gør hvad, hvilke skabeloner skal i brug først, og hvilke use cases skal i governance-sporet som pilot.

Træning er ofte den hurtigste måde at skabe ens praksis på. Rollebaseret læring gør, at jurister ikke drukner i teknik, og teknikere ikke drukner i paragraffer. Samtidig får forretningen konkrete eksempler på, hvordan man bestiller og bruger AI ansvarligt.

Mange vælger at måle indførelsen med få, tydelige nøgletal, så fremdrift kan ses og rapporteres:

  • Dækningsgrad: Andel af AI-use cases registreret i AI-register
  • Procesoverholdelse: Andel af releases med gennemført review og godkendelse
  • Dokumentationskvalitet: Andel med udfyldt modelkort, dataoversigt og eval-rapport

Vil I bruge AI med høj fart og høj tillid, er en workshop et stærkt første skridt. Nordisk Business Academy kan tilpasse forløbet til jeres organisation, branche og modenhed, og vi kan koble workshoppen med online kompetenceforløb og certificering, så governance bliver til fælles praksis, ikke kun et dokument.

Til top