No products added!
Når man skriver til ChatGPT, får kodeforslag i Copilot eller uploader et billede til Gemini, kan det let føles som om man taler med et digitalt system, der “forstår” alt. Bag oplevelsen ligger dog en ret konkret teknologi: LLM’er, også kaldet Large Language Models eller store sprogmodeller.
En LLM er ikke en klassisk database med færdige svar. Den er heller ikke et menneskeligt sind i softwareform. Den er et meget stort neuralt netværk, trænet på enorme mængder tekst, kode og i nogle tilfælde billeder, lyd og video. Dens styrke er, at den kan forudsige, hvad der sandsynligvis bør komme som næste ord, næste sætning eller næste kodeblok i en given kontekst. Netop den evne er nok til at skabe noget, der ligner forståelse, samtale og analyse på et imponerende niveau.
Hvad en LLM er, og hvorfor teknologien fylder så meget
LLM står for Large Language Model. “Large” henviser både til mængden af træningsdata og til antallet af parametre i modellen, altså de vægte og forbindelser, som justeres under træning. “Language” dækker ikke kun almindeligt skriftsprog, men ofte også kode, struktur, instruktioner og faglig tekst. “Model” betyder her en matematisk model, som har lært statistiske mønstre i sproget.
Det særlige ved store sprogmodeller er, at de kan bruges på tværs af mange opgaver uden at være bygget til kun én funktion. Den samme model kan skrive et udkast til en mail, forklare en kontraktbestemmelse, foreslå Python-kode, omskrive et referat eller opsummere et langt dokument. Det gør LLM’er meget mere fleksible end tidligere generationer af AI-systemer.
I praksis er det derfor ikke mærkeligt, at teknologien er blevet central i både vidensarbejde, undervisning, kundeservice og softwareudvikling.
- Tekstproduktion
- Opsummering
- Kodehjælp
- Oversættelse
- Idéudvikling
- Analyse af dokumenter
Hvordan en LLM fungerer teknisk bag kulissen
Kernen i moderne LLM’er er næsten altid en transformer-arkitektur. Transformers blev populære, fordi de er meget gode til at håndtere sammenhæng i lange tekststykker. Hvor ældre modeller ofte havde svært ved at holde styr på relationer mellem ord, kan transformer-modeller vægte mange dele af inputtet samtidig.
Før en model kan arbejde med tekst, bliver teksten opdelt i mindre enheder kaldet tokens. Et token kan være et helt ord, en del af et ord, tegnsætning eller små tekststumper. Ordet “sprogmodel” kan altså blive delt op anderledes, end et menneske intuitivt ville gøre det. Det er vigtigt, fordi modellen ikke ser tekst som ord i almindelig forstand, men som sekvenser af numeriske repræsentationer.
Disse tokens omdannes til vektorer, altså talrækker, som kan behandles matematisk. Modellen tilføjer også positionsinformation, så den ved, hvad der kommer før og efter. Derefter sendes inputtet gennem mange lag, hvor modellen hele tiden justerer sin indre repræsentation af teksten.
Det mest kendte princip i transformeren er self-attention. Her vurderer modellen, hvilke andre tokens i konteksten hvert token bør fokusere på. Når du skriver en sætning med et pronomen som “den”, skal modellen finde ud af, hvad “den” henviser til. Self-attention gør det muligt at koble ord og betydning sammen over korte og lange afstande i teksten.
I den proces bruger modellen blandt andet det, der kaldes query, key og value-vektorer. Det lyder teknisk, men idéen er enkel: modellen beregner, hvilke ord der er mest relevante for hinanden i den aktuelle sammenhæng. Når dette sker i flere parallelle spor, kaldes det multi-head attention. Det giver modellen mulighed for at følge flere typer relationer på én gang, som syntaks, betydning, emnesammenhæng og stil.
En vigtig pointe er, at mange kendte chatmodeller er autoregressive. Det betyder, at de genererer tekst trin for trin og kun kan “se” det, der allerede er skrevet til venstre i sekvensen. De gætter altså næste token, føjer det til teksten og gentager processen. Derfor kan en LLM opleves flydende og kreativ, men den arbejder stadig som en sandsynlighedsmaskine.
Træning af en LLM: fra rå tekst til brugbar assistent
En LLM bliver normalt trænet i flere faser. Først kommer fortræningen. Her får modellen meget store mængder tekst og lærer at forudsige næste token. Det kaldes ofte self-supervised learning, fordi selve teksten leverer træningssignalet. Modellen behøver ikke et menneske til at mærke hvert enkelt eksempel op.
I denne fase lærer modellen grammatik, mønstre, begreber, stilformer og en stor mængde generel verdensviden. Den lærer ikke sandhed i filosofisk forstand. Den lærer statistiske sammenhænge mellem ord, formuleringer og strukturer.
Derefter kommer typisk en fase med finjustering. Her formes modellen mere målrettet, så den bliver bedre til at følge instruktioner, svare hjælpsomt og holde sig inden for sikkerhedsgrænser. Mange kendte systemer bruger metoder, hvor mennesker vurderer svar, og hvor modellen derefter optimeres ud fra denne feedback. En kendt metode er RLHF, reinforcement learning from human feedback.
Det er i denne fase, at forskellen mellem en rå model og en brugbar assistent for alvor bliver tydelig. Den rå model kan være sprogligt stærk, men stadig svær at styre. Den finjusterede model er typisk bedre til dialog, høflighed, struktur, formatkrav og praktiske opgaver.
ChatGPT, Copilot og Gemini er ikke det samme
Selv om ChatGPT, Copilot og Gemini ofte nævnes i samme åndedrag, er de ikke identiske produkter. De bygger alle på store sprogmodeller, men de er designet til forskellige arbejdssituationer og med forskellige styrker.
ChatGPT er bygget til dialog og bred vidensarbejde. Det bruges til tekst, analyse, ideer, opsummeringer, kodning og mange andre opgaver via et samtaleinterface. Copilot er især skabt til udviklere og er tæt integreret i kodeværktøjer. Gemini er Googles model- og produktfamilie, hvor multimodalitet fylder mere, altså evnen til at håndtere tekst, billeder, lyd, video og kode i samme system.
Det er også værd at huske, at produkterne ændrer sig hurtigt. Den underliggende model afhænger ofte af version, abonnement og integration.
| Værktøj | Typisk modeltype | Styrke | Typisk brug |
|---|---|---|---|
| ChatGPT | Autoregressiv sprogmodel, ofte instruktionsfinjusteret | Dialog, tekst og generel opgaveløsning | Analyse, skrivning, opsummering, kodehjælp |
| Copilot | LLM til kodning, ofte integreret med flere modelvalg | Kodeforslag i kontekst | Udvikling, tests, dokumentation, pull requests |
| Gemini | Multimodal model familie | Håndtering af flere datatyper | Chat, søgning, kode, billede- og dokumentanalyse |
ChatGPT som samtalemodel
ChatGPT er stærk, når opgaven kan formuleres i naturligt sprog. Den kan omsætte løse instruktioner til et første udkast, strukturere komplekse emner og arbejde iterativt. Det gør den nyttig i fagmiljøer, hvor man har behov for hurtig bearbejdning af tekst og viden.
Det afgørende er ikke kun selve modellen, men også den måde den er finjusteret på. ChatGPT er designet til at følge instruktioner, holde en dialog i gang og tilpasse format og tone til brugerens behov.
Copilot som kodeassistent
Copilot adskiller sig ved at leve tæt på udviklerens arbejdsgang. Den ser ofte filer, funktioner, kommentarer og projektstruktur direkte i udviklingsmiljøet. Derfor kan den give forslag, som passer til konteksten i koden, ikke bare til en enkelt prompt.
Det gør den særligt nyttig til gentagne opgaver, testskrivning, refaktorering og dokumentation. Den erstatter ikke review, arkitekturvalg eller sikkerhedsvurdering, men den kan flytte meget rutinearbejde væk fra tastaturet.
Gemini som multimodal model
Gemini er interessant, fordi modellen fra starten er udviklet til mere end tekst. Det åbner for arbejdsscenarier, hvor et dokument, et billede, et diagram og en tekstprompt indgår i samme analyse. For organisationer med mange dokumenttyper kan det være en stor fordel.
Samtidig har Gemini fået en tydelig rolle i Googles økosystem, både i kontorværktøjer, cloudmiljøer og kodeassistance. Det gør modellen relevant i arbejdsgange, hvor data allerede ligger i Googles platforme.
Hvorfor LLM’er virker så godt, og hvor de stadig fejler
LLM’er imponerer, fordi de er ekstremt gode til mønstergenkendelse. De har set så meget sprog under træningen, at de kan efterligne stil, opsummere stof, kombinere information og generere plausible svar med høj hastighed. Det gør dem til stærke arbejdsværktøjer.
Men deres største styrke er også deres svaghed. En model kan producere noget, der lyder overbevisende, uden at det er korrekt. Det kaldes ofte hallucinationer. Problemet opstår, fordi modellen optimerer mod sandsynligt sprog, ikke nødvendigvis mod verificeret sandhed.
Det er derfor afgørende at bruge LLM’er med faglig dømmekraft, tydelige arbejdsprocesser og kvalitetstjek.
- Mønsterstyrke: meget gode til sprog, struktur og genkendelige opgavetyper
- Hastighed: kan reducere tid til første udkast markant
- Hallucinationer: kan opfinde kilder, fakta eller detaljer
- Bias: kan afspejle skævheder i træningsdata
- Kontekstgrænser: kan miste overblik i lange eller komplekse arbejdsgange
- Datarisiko: kræver klare regler for fortrolige oplysninger
Et vigtigt modenhedstegn i organisationer er derfor, at man går fra fascination til metode. Det betyder klare regler for prompts, review, databrug, dokumentation og ansvar.
LLM i praksis: fra chatværktøj til arbejdssystem
Når LLM’er skaber reel værdi, sker det sjældent kun gennem fri chat. De bedste resultater opstår ofte, når modellen kobles til en konkret proces. Det kan være et supportflow, en juridisk vurdering med menneskelig kontrol, en intern vidensbase eller et udviklingsmiljø med test og review.
Her kommer begreber som RAG ind i billedet, retrieval-augmented generation. I stedet for at lade modellen svare alene, henter systemet relevant information fra virksomhedens egne dokumenter og giver den som kontekst. Det gør svarene mere faktabundne og mere brugbare i praksis.
Det er også her, kompetenceudvikling bliver afgørende. Mange kan skrive en prompt. Færre kan designe et arbejdssystem, hvor AI bruges ansvarligt, målbart og fagligt forsvarligt. Det kræver indsigt i modeller, data, evaluering og governance.
I praksis ser man ofte størst gevinst, når fagfolk arbejder med tre spor samtidig:
- teknisk indsigt i, hvad modellen kan og ikke kan
- procesforståelse i den konkrete arbejdsopgave
- kritisk kvalitetssikring af output
For undervisere, ledere, HR, marketing, jurister og IT-professionelle er pointen den samme: LLM’er er ikke bare endnu et værktøj i rækken. De ændrer måden, man producerer, vurderer og distribuerer viden på. Den, der forstår mekanikken bag modellen, står stærkere både fagligt og strategisk.
Derfor giver det mening at lære mere end blot brugerfladen. Når man forstår tokens, transformerarkitektur, træningsfaser, sikkerhedslag og begrænsninger, bliver det langt lettere at vælge rigtigt mellem ChatGPT, Copilot, Gemini og andre løsninger. Det er netop dér, AI går fra at være spændende til at være anvendelig.

