Kursus i sikker brug af generativ AI – datasikkerhed, fortrolighed og prompt-hygiejne

Generativ AI kan løfte tempoet i alt fra sagsbehandling og undervisning til marketing, kodning og analyse. Men værdien forsvinder hurtigt, hvis der glider persondata, fortrolige dokumenter eller interne strategier ind i en prompt, eller hvis output bruges ukritisk. Sikker brug handler både om teknik, adfærd og governance.

Hos Nordisk Business Academy tilbydes et praksisnært kursusforløb, der gør deltagerne trygge ved at bruge generativ AI i hverdagen uden at kompromittere datasikkerhed, fortrolighed eller juridiske rammer. Fokus er på konkrete arbejdsgange, der kan implementeres med det samme, uanset branche og rolle.

Hvad betyder “sikker brug” af generativ AI i praksis?

Sikker brug er ikke kun et spørgsmål om at vælge “det rigtige værktøj”. Det er en disciplin, der kombinerer dataklassifikation, risikovurdering, konfiguration af services og god prompt-hygiejne, så man undgår at afgive oplysninger, man ikke kan kontrollere bagefter.

Mange nordiske retningslinjer peger på samme kerneprincip: behandl en generativ AI-tjeneste som en ekstern samarbejdspartner. Hvis du ikke ville sende informationen i en e-mail til en tredjepart uden aftalegrundlag, så hører den heller ikke hjemme i en prompt.

Sikker brug rummer også kvalitet og integritet. Generative modeller kan formulere overbevisende tekst, selv når den er upræcis. Derfor er “sikkerhed” også at have en metode til kildekritik, verifikation og sporbarhed, især når output påvirker kunder, borgere, elever eller beslutninger.

Hvorfor er prompt-hygiejne blevet en kernekompetence?

Prompt-hygiejne er evnen til konsekvent at holde prompts rene for følsomme oplysninger og samtidig instruere modellen præcist nok til at få brugbart output. Det er en vane, som kan trænes og standardiseres, så hele teamet arbejder ens.

Når prompt-hygiejne bliver en fælles praksis, falder risikoen for:

  • utilsigtet deling af personoplysninger
  • læk af forretningshemmeligheder og interne dokumenter
  • at fortrolige data lander i logs, historik eller leverandørers kvalitetssikring
  • at output bliver brugt uden kontrol og skaber fejl i rapporter, kommunikation eller undervisningsmaterialer

Målet er ikke at gøre medarbejdere nervøse. Målet er at give et klart råderum: Hvad kan man gøre trygt, og hvad skal håndteres via godkendte platforme, aftaler eller helt andre metoder?

Kursusindhold: datasikkerhed, fortrolighed og ansvarlig adfærd

Kurset er bygget op omkring realistiske situationer fra arbejdslivet, hvor deltagerne øver sig i at formulere prompts, der både er effektive og forsvarlige. Der arbejdes med enkle regler, man kan huske i en travl hverdag, og med skabeloner, der kan kopieres direkte ind i interne guidelines.

Efter en introduktion til, hvordan generativ AI behandler input og producerer output, går kurset hurtigt over i praksis: datatyper, værktøjsvalg, konfiguration og arbejdsgange.

Nedenfor er et udsnit af centrale emner, som typisk indgår, tilpasset deltagerprofil og kontekst:

  • Dataklassifikation i hverdagen: offentlig, intern, fortrolig, strengt fortrolig og hvad det betyder for AI-brug
  • Prompt-sanitizing: fjern identifikatorer, brug syntetiske eksempler, og skriv prompts som “mini-briefs” uden følsomme detaljer
  • Konfiguration og aftalegrundlag: hvornår DPA, enterprise-licenser eller godkendte platforme er nødvendige
  • Kontrol af output: tjek for hallucinationer, skjulte antagelser, bias og manglende kilder
  • Sporbarhed og dokumentation: logik for, hvad der blev spurgt om (uden at gemme følsomme data), og hvordan output blev kvalitetssikret

En praktisk model til at afgøre hvad der må i en prompt

Mange organisationer vinder tid ved at indføre en enkel “prompt-triage”: Hvilken datakategori arbejder du med, og hvilken type AI-miljø bruger du?

DatatypeEksemplerMå bruges i offentlig AI?Må bruges i godkendt enterprise/intern AI?Sikker praksis
Offentlige datahjemmesidetekster, pressemeddelelser, publicerede politikkerJaJaAngiv kilde og dato, bed om opsummering med citater
Interne ikke-følsomme datamødeagenda uden navne, generelle procesbeskrivelserMed stor forsigtighedJaFjern interne referencer, hold prompts korte og generiske
Personoplysningernavne, e-mail, CPR, elevdata, HR-sagerNejKun efter afklaring og passende grundlagMinimér, pseudonymisér, vurder DPIA ved høj risiko
Fortrolige forretningsdatapriser, kundelister, kontrakter, roadmapNejKun i kontrollerede løsningerBrug uddrag, maskering og interne skabeloner
Sikkerhedsfølsomtadgangsnøgler, arkitektur for kritiske systemerNejSjældent, og kun ved klar godkendelseFlyt arbejdet til sikker kanal, brug sikkerhedsteam

Tabellen bruges på kurset som et arbejdsværktøj. Deltagerne træner at omsætte den til en kort intern regel, som kan hænge ved siden af skærmen og faktisk blive fulgt.

Jura og governance uden at drukne i paragraffer

Kurset forankrer praksis i de regler, der reelt gælder i Danmark og i det nordiske marked. GDPR er ofte den mest presserende ramme, fordi en prompt med persondata er en behandling, og fordi formål, hjemmel, dataminimering og sikkerhed stadig skal kunne forklares.

Der arbejdes også med organisatoriske greb, som mange tilsyn og myndigheder efterspørger: klare politikker, godkendelseslister over værktøjer, samt tekniske værn, når det giver mening. I nogle miljøer kan firewall- eller proxy-regler være en relevant kontrol, hvis uautoriserede AI-tjenester skaber en reel risiko.

AI Act nævnes som ramme for risikobaseret tænkning og krav til transparens, men fokus holdes på det, man kan gøre nu: sikre arbejdsgange, bedre prompts og tydelig rollefordeling.

Hvem er kurset relevant for?

Kurset er målrettet fagprofessionelle, der allerede bruger eller snart får adgang til generativ AI, og som vil kunne svare professionelt på spørgsmål som: “Må jeg lægge dette ind i et AI-værktøj?” og “Hvordan gør vi det sikkert som team?”

Det passer særligt godt til roller, hvor man ofte sidder tæt på følsomme data eller kommunikation med høj konsekvens, typisk HR, undervisning, marketing, salg, projektledelse, IT og juridiske funktioner.

Deltagerne kommer ofte med forskellige forudsætninger. Derfor kan kurset gennemføres med både enkle “do and don’t”-regler og mere avancerede metoder til datamaskering, risikovurdering og intern governance, afhængigt af behov.

Format, læringsform og output, du kan tage med videre

Forløbet kan gennemføres online, så det passer ind i en travl kalender, og der lægges vægt på øvelser med realistiske cases. Arbejdet munder ud i materiale, der kan bruges direkte i organisationen.

Kurset tilrettelægges typisk, så deltagerne går herfra med:

  • en personlig “prompt-hygiejne”-tjekliste, der kan bruges hver dag
  • et udkast til interne retningslinjer for, hvilke datatyper der må bruges hvor
  • en enkel risikolog med de mest sandsynlige AI-risici i egen kontekst og passende modtræk
  • et sæt prompts, der er skrevet “sikkert” og kan deles i teamet

Der kan indgå certificering som dokumentation for kompetenceniveau, afhængigt af valgt forløb og evaluering.

Typiske situationer kurset gør dig stærk i

Du lærer at bevare momentum i opgaveløsningen, uden at “snyde” ved at kopiere følsomt materiale ind i en chat. Det kan være små greb, der gør den store forskel: at omskrive en problemstilling til et neutralt resumé, at bruge syntetiske eksempler, eller at bede AI om en struktur, før du tilfører egne data i et sikkert miljø.

Eksempler på arbejdssituationer, der ofte trænes:

  • Formulering af e-mails og tekster uden at inkludere kundedata
  • Opsummering af møder, hvor navne og identifikatorer fjernes
  • Udarbejdelse af politikker, undervisningsforløb og interne guides med klare kildekrav
  • Review af dokumenter med fokus på struktur og argumentation, mens indholdet holdes anonymiseret
  • Standardprompts til idegenerering, der ikke kræver data, du ikke bør dele

Sådan kommer I godt i gang som team

Når flere skal bruge generativ AI, vinder man mest ved at skabe fælles spilleregler og gøre det let at gøre det rigtige.

En god start er at afklare tre ting i organisationen: hvilke værktøjer er godkendt, hvilke datatyper må bruges hvor, og hvem kan give svar ved tvivl. Kurset kan bruges som fælles kompetenceløft, så sikker praksis ikke bliver enkeltpersoners projekt, men en del af den daglige kvalitet i arbejdet.

Til top