No products added!
Når et team begynder at bruge AI, sker der ofte to ting på samme tid: Nogle får hurtigt fart på og leverer synlige resultater, mens andre bliver usikre på kvalitet, datasikkerhed og hvad der egentlig forventes. En god onboarding-plan skaber én fælles rytme, så AI bliver en arbejdsform og ikke bare et ekstra værktøj i værktøjskassen.
En 30-60-90 dages plan er et enkelt greb, der gør fremskridt synlige, reducerer risiko og giver plads til praksis. Og ja, den virker også i små, tværfaglige teams, hvor der både sidder undervisere, projektfolk, marketing, HR, jurister eller IT-profiler ved samme bord.
Hvorfor en 30-60-90 plan er et stærkt AI-format
AI-adoption fejler sjældent på grund af teknologi alene. Den knækker typisk på uklare rammer, manglende tid til træning, og fravær af målepunkter, der giver mening i hverdagen.
30-60-90 skaber progression, hvor hvert trin har sit eget formål:
- De første 30 dage handler om fælles sprog, tryghed og grunddisciplin.
- Dag 31 til 60 handler om anvendelse i rollen, så relevansen bliver konkret.
- Dag 61 til 90 handler om integration i arbejdsprocesser, governance og ejerskab.
Det giver teamet et “minimum viable system” for læring, adfærd og effekt, uden at man skal forudsige hele rejsen fra start.
Før I starter: baseline, rammer og psykologisk tryghed
Før man planlægger træningsmoduler og use cases, er det værd at få styr på to fundamenter: baseline og spilleregler. Baseline betyder ikke “hvor dygtig er du til AI”, men “hvad kan du allerede, hvad bruger du i dag, og hvor er du utryg”.
En kort survey og et par mini-opgaver kan give et ærligt billede på tværs af teamet: Kan folk skrive prompts, vurdere et svar kritisk, og håndtere data forsvarligt? De svar kan styre tempo og niveau, så man undgår at undervise for højt eller for lavt.
Efter den afklaring er det klogt at sætte rammer, der gør det let at gøre det rigtige, også når man har travlt.
- Data og fortrolighed: Hvad må deles med hvilke værktøjer, og hvad må aldrig deles.
- Kvalitet og ansvar: Hvem ejer resultatet, og hvordan tjekker vi fakta, kilder og tone.
- Værktøjsvalg: Hvilke platforme er “godkendt”, og hvad er en midlertidig sandkasse.
- Supportkanal: Hvor stiller man spørgsmål, og hvor deles gode eksempler.
Tryghed er ikke blødt. Det er produktivitet.
De første 30 dage: fælles sprog og sikre vaner
I starten skal alle kunne det samme grundlæggende, også dem der senere bliver power users. Fokus er AI-faglighed på et niveau, der kan omsættes direkte: prompt-struktur, fejlkilder, kildekritik, og grundregler for ansvarlig brug.
Samtidig skal teamet hurtigt have små succeser. Et godt design er at skifte mellem korte oplæg og praksis, hvor deltagerne afleverer et output, får respons og retter til. Det gør læringen synlig og minimerer den klassiske “jeg så en video, men bruger det ikke”.
Typiske leverancer i de første 30 dage kan være en mini-portfolio: en side med 5 prompts til ens rolle, et katalog over 10 relevante use cases, og en tjekliste til kvalitetssikring. Når det er skrevet ned, kan det deles, diskuteres og forbedres.
Målepunkter for dag 30 bør være enkle og konkrete: gennemførte øvelser, baseline-test før og efter, samt en kort selvtillidsmåling på “jeg kan bruge AI sikkert i min opgave”.
Dag 31 til 60: rollebaseret praksis og små prototyper
Nu skal AI flytte sig fra “noget vi øver” til “noget vi gør”. Det sker bedst, når læringsspor knyttes til faktiske arbejdssituationer: undervisningsdesign, kommunikation, kontraktarbejde, rapportering, analyse, projektledelse eller kundedialog.
Et effektivt greb er at vælge 2 til 3 use cases pr. rolle, hvor output kan måles, og hvor risikoen er lav nok til at eksperimentere. Man kan også arbejde i små tværfaglige grupper, så én person bringer domænekendskab, en anden bringer struktur, og en tredje kan teste værktøj og workflow.
Det hjælper at definere, hvad der tæller som “færdig” for en prototype: ikke en perfekt løsning, men en løsning der kan gentages, dokumenteres og vurderes.
Efter et par uger i denne fase kan teamet med fordel lave korte delinger, hvor man viser før og efter, samt hvilke kontrolpunkter der gjorde output bedre.
- Hurtigere første udkast
- Bedre struktur i tekster og oplæg
- Standardiserede skabeloner til gentagne opgaver
- Små automatiseringer i kendte værktøjer
Målepunkter ved dag 60 kan knyttes til adfærd: hvor ofte AI bruges i rigtige opgaver, hvor mange prototyper der er testet, og om kvaliteten er stabil eller kræver mange rettelser.
Dag 61 til 90: integration, governance og ejerskab
I den sidste fase skal AI blive til drift. Det betyder ikke “alt automatiseres”, men at man bygger et robust setup, hvor mennesker og AI samarbejder med tydelige roller: AI foreslår, mennesket godkender. AI accelererer, mennesket tager ansvar.
Her giver et capstone-projekt ofte det bedste læringsudbytte: én konkret proces eller leverance, der forbedres markant. Det kan være en AI-støttet skabelon til kursusbeskrivelser, en standard for feedback på opgaver, et workflow til research, eller en enklere automatisering i Power Automate.
Governance skal også have plads her, men i en praktisk version. Ikke lange policy-dokumenter, men en håndfuld regler, der kan følges i hverdagen: datahåndtering, logning, versionsstyring og kvalitetstjek.
Det er også her, teamet kan samle en fælles promptbank, en “style guide” til tone og sprog, og en kort guide til, hvordan man evaluerer output.
Målepunkter der giver mening: fra læring til effekt
Mange måler AI-adoption ved at spørge “bruger du AI?”. Det er for svagt. Måling skal følge modenhed: først læring, så adfærd, så effekt.
En pragmatisk model er at kombinere fire typer indikatorer: oplevelse, færdigheder, anvendelse og resultat. Det kan gøres uden tung administration, hvis man genbruger data fra quizzer, afleveringer, enkle tidsmålinger og korte pulse surveys.
| Tidspunkt | Fokus | Eksempler på målepunkter | Datakilder |
|---|---|---|---|
| Dag 30 | Fundament | Pre/post quiz-score, afleverede mini-leverancer, selvvurderet sikkerhed i datahåndtering | Quiz, portfolio, kort survey |
| Dag 60 | Anvendelse | Antal AI-støttede opgaver pr. uge, antal testede prototyper, kvalitetsscore fra peer review | Log over use cases, peer review, mentorfeedback |
| Dag 90 | Integration | Tidsbesparelse på 1 til 2 kerneprocesser, færre iterationer pr. leverance, stabil compliance-praksis | Før/efter måling, tjeklister, stikprøver |
Hvis man vil gøre det endnu mere operationelt, kan man indføre én fast “AI-telemetri” pr. uge: Hvilken opgave blev løst med AI, hvad var gevinsten, og hvad lærte vi om kvalitet.
Feedbacksløjfer der holder tempo uden at presse teamet
Onboarding bliver stærk, når feedback er en del af designet, ikke et ekstra møde. En kort rytme kan være nok: ugentlig spørgetid, hver anden uge peer review, og en månedlig mini-retrospektiv.
Et vigtigt greb er at gøre feedback konkret: vurder output mod en tjekliste, ikke mod mavefornemmelse. Det flytter dialogen fra “jeg kan ikke finde ud af AI” til “jeg mangler et bedre kontrolpunkt for fakta og kilder”.
Når feedbacksløjfer fungerer, sker der ofte en kulturændring: Folk begynder at dele prompts, fejl og forbedringer åbent. Det er præcis den adfærd, der gør AI til en fælles kompetence.
Typiske faldgruber, og hvad der virker i stedet
Selv gode teams kan løbe ind i klassiske mønstre: enten bliver AI til leg uden drift, eller også bliver det til regler uden energi. Det kan løses med enkle modtræk.
Faldgruberne kan ofte genkendes tidligt, hvis man lytter efter bestemte sætninger: “Jeg ved ikke, hvad jeg må”, “Jeg får dårlige svar”, “Jeg har ikke tid”, “Det passer ikke til min rolle”.
- For meget teori: Skift til små afleveringer, hvor output kan bruges i næste uge.
- Uklare dataregler: Skriv 10 linjer om do’s og don’ts og gentag dem i praksisøvelser.
- Ingen ejerskab: Udpeg en ansvarlig pr. use case, der holder dokumentation og næste iteration.
- Måling uden mening: Mål på tid, kvalitet og gentagelighed, ikke kun på “brug”.
Det kræver ikke et stort team at lykkes. Det kræver en klar plan, et par faste vaner og målepunkter, som folk faktisk kan påvirke.
Når de første 90 dage er gået, står man typisk med noget langt mere værdifuldt end et sæt prompts: en fælles metode til at arbejde med AI ansvarligt, praktisk og med stigende kvalitet, måned for måned.

