No products added!
Når en sprogmodel skriver med stor sikkerhed, kan det føles som at have en ekstra kollega i rummet. Hurtig, velformuleret og altid klar.
Problemet er, at den samme sikkerhed også kan dække over noget helt andet: et svar, der lyder rigtigt, men ikke er det. Det er dét, mange kalder AI-hallucinationer, og i professionelle tekster, analyser og beslutninger kan det blive dyrt, pinligt eller direkte risikabelt.
Hvad er en AI-hallucination i praksis?
En AI-hallucination er ikke “mærkelig fantasi” i klassisk forstand. Det er typisk et stykke tekst, hvor modellen:
- opfinder en kilde, et tal eller et citat
- blander fakta fra forskellige kontekster
- udfylder et hul med noget plausibelt, når den mangler viden
- generaliserer, så nuancer og betingelser forsvinder
Det afgørende er, at output ofte er sprogligt stærkt. Den professionelle tone bliver en slags camouflage, og derfor rammer hallucinationer ofte der, hvor man mindst ønsker det: i afsnit, der lyder som om de er tjekket af en ekspert.
Hvorfor opstår hallucinationer?
Sprogmodeller er bygget til at forudsige tekst, ikke til at verificere sandhed. De “regner” ikke på samme måde som et regneark og “slår ikke op” i en database, medmindre du kobler dem til en.
Der er især fire mekanismer, som går igen i professionelle kontekster.
1) Træningsdata: støj ind, støj ud
Modellerne lærer mønstre fra enorme tekstmængder. De indeholder både kvalitet og skrald, både opdateret viden og forældede påstande, både fagligt solide forklaringer og blogindlæg med fejl.
Når en oplysning er sjælden i data, stiger risikoen. Sjældne facts bliver statistisk “tynde”, og modellen har mindre at støtte sig til. Så kommer gættet.
2) Arkitektur og mål: sandsynligt, ikke sandt
Den typiske LLM er en avanceret sekvensforudsigelse. Den vælger de næste ord, der passer bedst til kontekst og mønstre, den har set før.
Det giver flydende sprog. Det giver ikke automatisk faktakontrol.
3) Afkodning og “kreativitet”
Indstillinger som temperatur og sampling kan skubbe modellen mod mere varieret output. Det er nyttigt til ideudvikling og formuleringer, men kan øge risikoen for, at der glider detaljer ind, som aldrig blev dokumenteret.
4) Prompt, kontekst og format
Uklare spørgsmål inviterer til klare, men usikre svar.
Meget lange inputs kan også gøre det sværere for modellen at holde styr på præmisser, definitioner og undtagelser. Og når man beder den om at oversætte mellem tekst, tabeller og tal, kan små misforståelser blive til store afvigelser.
De typiske faresignaler du kan træne dig til at se
Hallucinationer kan ofte spores i sproget, før de spores i fakta.
Her er et par signaler, der går igen, når man gennemgår AI-tekst i en professionel setting:
- Overdreven sikkerhed
- Kilder uden link, dato eller præcis titel
- Meget “pæne” tal (runde procenter, symmetriske fordelinger)
- Citater, der lyder generiske eller for glatte
- Regler og krav uden henvisning til konkret standard eller paragraf
Et enkelt signal beviser ikke en fejl. Flere signaler i samme afsnit bør udløse kontrol.
Når fejl bliver dyre: tekster, analyser og beslutninger
Hallucinationer er ikke kun et skriveproblem. De flytter sig med ind i beslutningskæden, fordi tekst ofte bliver brugt som grundlag.
Professionelle tekster
I HR-tekster kan en model opstille “gældende regler” om fravær eller opsigelse uden at være korrekt. I marketing kan den opfinde produktpåstande eller fejlcitere undersøgelser. I intern kommunikation kan den lave en overbevisende, men upræcis, opsummering af en strategi.
En sproglig forbedring kan altså samtidigt være en faktuel forringelse.
Analyser
AI kan være stærk til at strukturere, opsummere og foreslå hypoteser. Risikoen opstår, når output bliver læst som dokumentation.
Særligt udsat er:
- benchmark-sammenligninger uden kildespor
- markedsstørrelser og vækstrater uden metode
- årsagsforklaringer, der lyder som analyse, men reelt er mønstergenkendelse
Beslutninger i højrisikoområder
I jura kan opdigtede domme eller forkerte referencer skabe alvorlige konsekvenser. I finans kan et “rimeligt” svar dække over, at et krav eller et nøgletal er misforstået. I sundhedsfaglige sammenhænge kan udeladte betingelser og doser være decideret farligt.
Netop derfor bør man skelne mellem AI som skrive- og tænkehjelp og AI som sandhedsmaskine. Den sidste findes ikke i praksis uden ekstra kontrol.
En enkel model for kvalitetssikring: fra tekst til dokumentation
Mange teams får mest effekt ved at indføre et fast workflow, hvor AI-output får en tydelig status: udkast, ikke facit.
Tabellen her kan bruges som et hurtigt “hvad kan gå galt, og hvad gør vi så”-overblik:
| Arbejdssituation | Hvad hallucinationen ofte ligner | Hvad der typisk virker som modtræk |
|---|---|---|
| Opsummering af rapport | Kritiske forbehold forsvinder, resultater bliver for brede | Bed om citater med sidehenvisning, tjek nøgleafsnit manuelt |
| Juridisk notat | Opdigtede afgørelser, kreative paragraffer | Kræv kilde-id, verificér i lovsamling/domsdatabase |
| Markedsanalyse | Tal uden metode, glatte vækstrater | Brug egne datasæt, dokumentér beregning, stikprøvetjek |
| Policy og compliance | “Standardkrav” der ikke gælder i din branche | Sammenhold med interne retningslinjer og relevante standarder |
| Kode og IT-arkitektur | Biblioteker der ikke findes, fejlagtige mønstre | Kør tests, dependency-scan, review i teamet |
Teknikker der reducerer risiko markant
Der er ikke ét greb, der fjerner hallucinationer. Til gengæld kan en kombination af tydelig prompt, kildestyring og kontroller give en stabil praksis, også i travle miljøer.
Grounding: giv modellen noget at stå på
Hvis modellen må svare ud fra “hukommelse”, gætter den oftere. Hvis den får adgang til kontrollerede kilder, falder risikoen.
Mange organisationer bruger derfor retrieval-augmented generation (RAG), hvor modellen først henter relevant indhold fra et dokumentlager, en vidensbase eller et intranet og derefter skriver svaret med de tekster som fundament.
Det ændrer ikke modellen til en dommer over sandhed. Det gør dens arbejdsgrundlag mere stabilt.
Stram promptstruktur: gør det let at sige “ved ikke”
I professionelle opgaver hjælper det at gøre kravene eksplicitte og at tillade usikkerhed.
Et praktisk sæt promptprincipper kan se sådan ud:
- Kildekrav: Angiv hvilke kilder der må bruges, og hvordan de skal citeres
- Svarformat: Bed om en tabel med “påstand, belæg, kilde, usikkerhed”
- Stop-regel: Bed modellen skrive “ukendt” når der mangler belæg
- Afgrænsning: Definér periode, geografi, målgruppe, standarder, begreber
- Kontrolspørgsmål: Bed modellen foreslå, hvad der bør verificeres manuelt
Det giver et svar, der er nemmere at kvalitetssikre, også når du deler det med en kollega.
Flerkørsler og konsistenskontrol
En enkel, men effektiv metode er at køre samme spørgsmål flere gange og se, om centrale facts ændrer sig. Store variationer er et rødt flag. Forskning peger på, at uoverensstemmelse mellem flere svar kan bruges som en slags usikkerhedsindikator, ofte omtalt som semantisk entropi.
Det er ikke et bevis i sig selv, men en god prioriteringsmotor: “Hvad skal vi tjekke først?”
Automatiserede checks og regelmotorer
I nogle workflows kan man bygge et ekstra lag, der tjekker output mod regler. Nogle platforme arbejder med automatiserede reasoning checks, hvor påstande holdes op imod formelle regler eller domænekrav.
Det passer særligt godt til:
- produktkrav og specifikationer
- compliance-regler, hvor format og indhold kan valideres
- kendte definitioner og forretningslogik, som kan udtrykkes som regler
Mennesket i loopen: ikke som flaskehals, men som kvalitetsløft
I en travl hverdag bliver “menneskelig kontrol” tit oversat til ekstra tid. Det behøver det ikke at være, hvis man designer kontrollen rigtigt.
En robust praksis handler om at flytte kontrollen til de rigtige steder:
- før publicering af eksterne tekster
- før tal, citater og kilder bliver “officielle”
- før en anbefaling bliver til beslutning
Et konkret greb er at indføre faste roller og tjekpunkter i processen, så det er tydeligt, hvem der godkender hvad.
Efter et stykke tid skaber det også en kultur, hvor AI bliver brugt offensivt til kladder og struktur, mens kvaliteten stadig føles professionel og veldokumenteret.
Kompetencerne bag ansvarlig brug
Værktøjer og procedurer rækker langt. Færdighederne hos brugerne afgør resten.
Det er her, kursus- og læringsmiljøer kan gøre en reel forskel. Når AI bliver en rød tråd på tværs af fagområder, kan marketingfolk, projektledere, jurister og undervisere mødes om samme kernespørgsmål: Hvad er en stærk prompt, hvornår kræves kildekrav, og hvordan dokumenterer vi vores kontrol?
Hos et lærings- og kursusakademi som Nordisk Business Academy vil fokus typisk være praksisnære cases, certificering og arbejdsgange, der kan bruges med det samme. Ikke for at gøre alle til dataforskere, men for at gøre flere til sikre, kritiske og effektive brugere.
Et arbejdsmønster, der giver ro i maven
Hvis du vil gøre det enkelt at komme i gang, kan du tænke i tre niveauer:
- AI skriver udkastet.
- Systemet og brugeren markerer, hvad der er usikkert.
- En fagperson godkender de dele, der har konsekvens.
Det er en professionel måde at få tempo uden at miste præcision.
Og det efterlader plads til det, generativ AI faktisk er rigtig god til: at give struktur, variation i formuleringer, forslag til dispositioner og hurtige sammenfatninger, så mennesker kan bruge deres tid på vurdering, prioritering og ansvar.

