No products added!
Når AI flytter fra eksperimenter til hverdagsarbejde, bliver det tydeligt, at teknologi alene ikke skaber værdi. Det gør mennesker, der kan stille de rigtige spørgsmål, vælge de rigtige anvendelser og vurdere resultaterne nøgternt.
AI-literacy er derfor ikke en “nice to have”-disciplin for særligt interesserede. Det er en fælles basis, der gør organisationen i stand til at bruge AI kritisk, etisk og effektivt, uanset om man arbejder med kommunikation, kundeservice, jura, HR, projektledelse eller IT.
Hvad betyder AI-literacy i en organisations hverdag?
AI-literacy i organisationskontekst handler om medarbejderes evne til at arbejde kvalificeret med AI, ikke kun om at kunne åbne et værktøj og skrive en prompt. Gartner beskriver det som, at organisationen skal forstå teknologiens betydning, risici og muligheder, mens Dansk Industri lægger vægt på grundlæggende indsigt i, hvordan AI virker, hvilke risici der følger med, og hvordan man bruger det ansvarligt i praksis.
Det vigtigste skifte er mentalt: fra “AI laver et svar” til “AI producerer et forslag, som jeg kan teste, justere og dokumentere”. Den kompetence er relevant i alle funktioner.
Et nyttigt pejlemærke er, at AI-literacy både rummer viden, dømmekraft og adfærd. Viden uden adfærd bliver hurtigt til kursusnoter. Adfærd uden dømmekraft bliver hurtigt til risici.
Hvorfor det pludselig er en kernekompetence
AI påvirker både tempo og kvalitet i vidensarbejde. Mange oplever, at generativ AI kan spare tid på kladder, struktur, opsummering, idéudkast og analyse, men kun når medarbejderen har blik for, hvad værktøjet er godt til, og hvor det typisk fejler.
Samtidig bliver kravene til ansvarlig brug skærpet. EU’s AI-forordning stiller forventninger om, at organisationer sikrer tilstrækkelige AI-færdigheder hos personale, og at kravene matcher rolle og risiko. Det giver god mening: Den, der blot bruger en godkendt chatbot til idéer, bør ikke have samme dybde som den, der designer en model, vælger data eller godkender en højrisiko-løsning.
AI-literacy er også et kulturelt spørgsmål. Hvis AI bliver noget, man “skjuler”, får man hverken læring, kvalitetssikring eller fælles standarder. Hvis AI bliver noget, man kan tale åbent om, opstår der hurtigere gode arbejdsgange og færre fejl.
De fire byggesten, der typisk går igen
Mange rammer for AI-literacy kan opsummeres i fire områder, som også passer godt til, hvordan man bygger kompetencer i en organisation: fundament, værdi og use cases, teknik (engineering) samt styring og etik (governance).
Nedenfor er en praktisk version, der kan bruges til at planlægge både læringsforløb og interne forventninger.
| Område | Hvad medarbejdere skal kunne | Typiske tegn på modenhed | Eksempler på arbejdssituationer |
|---|---|---|---|
| Fundament | Forstå centrale begreber (data, modeller, bias, hallucinationer, begrænsninger) | Man kan forklare, hvornår AI gætter, og hvornår den beregner | Vurdere et AI-svar, spotte manglende kilder, stille opklarende prompts |
| Værdi og use cases | Se hvor AI giver mening, og hvor det ikke gør | Man vælger opgaver efter effekt og risiko, ikke efter hype | Automatisere opsummering, støtte kundedialog, analysere mønstre i data |
| Teknik (engineering) | Have nok indsigt til at samarbejde om data, integration, test og drift | Man ved, hvad der skal testes, og hvilke data der kræves | Samarbejde med IT om datakilder, evaluere modeloutput, opsætte simple flows |
| Styring og etik (governance) | Kende regler, politikker, GDPR, sikkerhed og ansvar | Man dokumenterer valg, begrunder brug og håndterer data korrekt | Vælge godkendte værktøjer, undgå følsomme data i prompts, risikovurdere brug |
Tabellen kan bruges som et “kompetencekort”: Hvilke felter skal alle have et minimum i, og hvor kræver bestemte roller et højere niveau?
Kompetencer efter rolle: samme mål, forskellige krav
En typisk fejl er at lave ét AI-kursus til alle og kalde det en dag. Det kan skabe en fælles baseline, men det løser sjældent de opgaver, organisationen faktisk står med.
Det hjælper at oversætte AI-literacy til rollemål. Nedenstående er et praktisk udgangspunkt:
- Ledere og beslutningstagere: Risiko- og værdiblik, prioritering af use cases, krav til dokumentation og ansvar
- Fagprofessionelle brugere: Sikker brug i hverdagen, kvalitetstjek af output, prompts der passer til fagets standarder
- Power users og nøglepersoner: Skabeloner, workflow-design, testmetoder, videndeling og intern support
- Data- og IT-roller: Data governance, modelvalg, evaluering, drift, adgangsstyring og sikkerhed
Når rollemålene er klare, bliver det også lettere at tale om forventninger: Hvad må man bruge AI til? Hvad kræver godkendelse? Hvilke opgaver bør altid have menneskelig kontrol?
Sådan bygger I AI-literacy som et program, ikke som en enkelt indsats
AI-kompetencer opstår sjældent ved én workshop. De opstår, når læring kobles til konkrete arbejdsgange, og når der er en rytme i opfølgning.
En enkel programstruktur kan se sådan ud:
- Kortlæg udgangspunktet med en kombination af selvevaluering og korte videnstests
- Vælg 3 til 5 prioriterede use cases, der matcher strategi og dataforhold
- Definér regler og rammer: værktøjer, dataklasser, godkendelser, logning og dokumentation
- Træn rollebaseret og opgavebaseret med øvelser, der ligner jeres virkelige arbejde
- Etablér feedback-sløjfer: mini-audits, erfaringsdeling, opdaterede skabeloner og målinger på effekt
Det lyder enkelt, men effekten ligger i disciplinen: kort cyklus, tydelige standarder og løbende praksis.
Og ja, det kræver ledelsesopbakning. Ikke som en flot ambition, men som prioriteret tid og tydelige rammer.
Måling: hvordan ved I, at AI-literacy faktisk virker?
Måling bliver ofte for snæver, hvis man kun tæller kursusdeltagelse. Deltagelse siger noget om indsats, ikke om kompetence eller værdi.
En robust tilgang kombinerer fire vinkler:
Subjektiv viden: En kort survey kan vise, om medarbejdere føler sig trygge ved at bruge AI, og hvor de oplever de største usikkerheder.
Objektiv viden: Små quizzer om centrale begreber, datasikkerhed, bias og kvalitetssikring giver et mere nøgternt billede af niveauet.
Adfærd og fremdrift: Hvor mange bruger de godkendte værktøjer? Hvor ofte anvendes skabeloner? Hvor mange teams har gennemført en pilot med dokumenterede læringspunkter?
Forretningseffekt: Her giver det mening at måle på konkrete processer: tid til første udkast, fejlrate, svartider, kundetilfredshed, compliance-afvigelser eller kvalitet i beslutningsgrundlag. Vælg få, men relevante KPI’er pr. use case.
Det afgørende er, at måling ikke bliver en kontroløvelse. Det skal være et kompas, der viser, hvor næste læringsindsats giver størst effekt.
Læring der kan mærkes i hverdagen
AI-literacy bliver stærk, når medarbejdere har sprog for både muligheder og begrænsninger, og når de har prøvet det af på egne opgaver.
Mange organisationer kombinerer tre læringsformer:
- Kortere, fokuserede workshops med cases fra egen branche
- Online læring i eget tempo, der gør det let at skalere
- On-the-job læring, hvor man løser rigtige opgaver med sparring og fælles standarder
Det er netop i samspillet, at AI-vaner opstår. Workshoppen skaber energi og fælles retning. Online læring gør det muligt at gentage og opdatere. On-the-job gør det konkret og relevant.
Nordisk Business Academy arbejder med praksisnære, AI-integrerede kompetenceforløb til både professionelle og private, typisk online og med certificering. Udvalget spænder fra lederrettede forløb som “AI Manager” til domænekurser som AI i kommunikation, AI i HR og AI for controllere. Den røde tråd er, at læring kobles til konkrete arbejdssituationer og aktuelle krav i det nordiske marked.
En god tommelfingerregel: Hvis et kursus ikke ændrer en arbejdsgang inden for 14 dage, har organisationen brug for bedre bro mellem læring og praksis.
Styring og etik: det der gør AI trygt at bruge
AI-literacy uden governance bliver hurtigt skrøbeligt. Governance uden literacy bliver hurtigt papir.
Et godt set-up kan være enkelt, hvis det bygger på klare valg og få, tydelige principper. Mange starter med at definere:
Hvilke værktøjer er godkendt, og til hvad. Hvilke data må aldrig deles. Hvordan man håndterer persondata og fortrolige oplysninger. Hvornår man skal dokumentere prompt, kilder, beslutninger og menneskelig kontrol. Hvordan man tester output for kvalitet, bias og fejl.
Det skaber tryghed. Det skaber også tempo, fordi medarbejdere slipper for at gætte sig frem.
Her er det ofte en styrke at samle kompetencer på tværs: jura, IT-sikkerhed, HR, dataansvarlige og forretningen. AI bliver nemlig sjældent en ren IT-øvelse. Det er en arbejdsform.
Når kompetencer bliver strategi
AI-literacy er ikke et mål i sig selv. Det er den fælles platform, der gør det muligt at vælge de rigtige use cases, bygge dem ordentligt, få dem i brug og holde dem ansvarlige over tid.
Start med et niveau, alle kan være med på. Byg derefter specialisering, hvor værdien og risikoen er høj. Og hold fast i rytmen: læring, afprøvning, standardisering, opdatering.
Når det lykkes, bliver AI ikke en ekstra opgave. Det bliver en naturlig del af fagligheden.

