Features Languages Business Blog Status
Download on App Store
Analyse February 20, 2025 7 min read

Hvorfor diktering fejler på dansk

Du trykker på mikrofon-knappen, siger noget på dansk, og får noget tilbage, der ligner en dårlig maskinoversættelse. Det er ikke din accent. Det er systemet, der aldrig blev bygget til dit sprog.

Rødgrød med fløde. Eller: road grid med flood.

Der er en uofficiel test for dansk talegenkendelse. Sig "rødgrød med fløde" til din telefons dikteringsfunktion. Se, hvad der kommer ud. På de fleste enheder får du noget i retning af "road grid med flood", "röd gröd med flöde" (svensk-agtigt) eller simpelthen en tom linje, fordi systemet opgav.

Det er ikke en kuriositet. Det er et symptom på et fundamentalt problem: de dikteringsværktøjer, som millioner af danskere har på deres telefoner og computere, er ikke bygget til dansk. De er bygget til engelsk og derefter tilpasset — halvhjertet, utilstrækkeligt — til at håndtere andre sprog.

Og for et sprog som dansk, hvor lydene er radikalt anderledes fra dem, det engelske system forventer, er tilpasningen ikke god nok. Den er ikke tæt på at være god nok.

Hvad går galt — teknisk set

For at forstå hvorfor diktering fejler på dansk, er det nødvendigt at forstå, hvordan moderne talegenkendelse fungerer. Systemerne er bygget på enorme mængder træningsdata: tusinder af timers tale, parret med korrekt tekst. Modellen lærer at forbinde lydmønstre med bogstavsekvenser.

Problemet er fordelingen af den data. Engelsk dominerer. Mandarin og spansk følger efter. Derefter kommer et dramatisk fald. Dansk, med sine knap 6 millioner talere, får en brøkdel af den opmærksomhed, som store sprog får. Modellerne har simpelthen ikke hørt nok dansk til at forstå det ordentligt.

Men det handler ikke kun om mængde. Det handler om, at dansk lyd er fundamentalt anderledes.

Danske lyde, som maskiner ikke forstår

Dansk har en række fonetiske særtræk, som gør det særligt svært for talegenkendelsessystemer:

  • Stødet. Det glottale stop, der er unikt for dansk. Det er en kort afbrydelse i luftstrømmen midt i et ord — forskellen mellem "hun" og "hund" kan være et stød. Engelsktrænede modeller genkender det ikke som en meningsfuld lyd.
  • Vokalsystemet. Dansk har omkring 30 distinkte vokallyde — langt flere end engelsk. Når en model kun kender 15 vokaler, kollapser den de ekstra danske vokaler til de nærmeste engelske ækvivalenter. Ø bliver til o. Æ bliver til ae eller a. Å forsvinder.
  • Bløde konsonanter. Det bløde d i "rød" eksisterer ikke på engelsk. Systemet hører noget, det ikke kan placere, og gætter forkert.
  • Sammensmæltning. Danskere "sluger" lyde. "Hvad hedder du" lyder som "va heddær du". "Jeg ved det ikke" bliver til "ja ve de igg". Modellen forsøger at matche de lyde, den hører, med engelske ordmønstre og går fuldstændig galt.

Resultatet er forudsigeligt og frustrerende. Du siger noget fuldstændig klart. Systemet returnerer noget, der ligner et andet sprog.

De virkelige eksempler

Enhver dansker, der har prøvet diktering, kender øjeblikkene:

  • "Ø" → "o". Hver gang. "Økonomi" bliver til "okonomi". "Øl" bliver til "ol". Øen i søen? Glemt.
  • "Æ" → "ae" eller "a". "Æble" bliver til "able" eller "aeble". "Ærlig" forvandles til "airlig".
  • "Å" → "a" eller "o". "År" bliver til "or". "Åben" bliver til "oben".
  • Sammensatte ord splittes. "Arbejdsmarkedsforanstaltning" bliver til fire separate, ofte forkerte ord.
  • Egennavne forsvinder. "Nørrebro" bliver til "Nora bro". "Østerbro" til "Oster bro". "Ærø" til … ja, det er bedst ikke at prøve.

Disse fejl er ikke marginale. De er systematiske. De sker, fordi systemet i sin kerne stadig tænker på engelsk og forsøger at tvinge danske lyde ind i engelske kategorier.

Problemet er ikke, at din udtale er uklar. Problemet er, at systemet lytter med engelske ører.

Småsprogs-negligeringen

Der er en bredere historie her. Apple, Google og de andre store teknologivirksomheder prioriterer sprog efter markedsstørrelse. Engelsk får den bedste model, de fleste data og den mest raffinerede efterbehandling. Spansk og mandarin får solide versioner. Derefter falder kvaliteten hurtigt.

For sprog med under 10 millioner talere — dansk, norsk, finsk, islandsk — er investeringen minimal. Modellerne trænes på begrænsede datasæt. Efterbehandlingen (tegnsætning, formatering, navnegenkendelse) er rudimentær. Og vigtigst af alt: der er sjældent nogen, der tester resultatet med indfødte talere, der rent faktisk bruger sproget i hverdagen.

Det er ikke ondsindet. Det er økonomi. Det koster det samme at bygge en dikteringsmodel for dansk som for engelsk, men det engelske marked er 50 gange større. Resultatet er, at små sprog konsekvent får andenrangs teknologi.

Hvad der faktisk skal til

At få diktering til at virke på dansk kræver en fundamentalt anderledes tilgang end at tilpasse en engelsk model. Det kræver:

  • Danske træningsdata i stor skala. Ikke oversat engelsk, men autentisk dansk tale med alle dens særlige lyde, dialekter og udtaleformer.
  • Et fonetisk system, der rummer danske lyde. 30 vokaler, stød, blødt d, sammenslugede konsonanter — modellen skal kende dem alle.
  • Dansk sprogmodel til efterbehandling. Når lyden er oversat til tekst, skal systemet vide, at "arbejdsmarkedsforanstaltning" er ét ord, ikke fire. At "Østerbro" er et stednavn. At "så det var sådan set det" skal forstås som naturlig dansk tale.
  • Navne og stednavne. Danmark er fuldt af ord, som en generisk model aldrig har set: Nykøbing, Hjørring, Ærø, Sønderborg. En dikteringsmodel, der ikke kender disse, er ubrugelig i praksis.

Det er præcis denne tilgang, Aivo har taget. Ikke en engelsk model med et dansk lag ovenpå, men et system, der fra starten er bygget til at forstå nordiske sprog som det, de er — komplekse, nuancerede og fundamentalt forskellige fra engelsk.

Forventningernes gift

Der er en psykologisk dimension, som sjældent bliver nævnt. Årtier med dårlig diktering har overbevist de fleste danskere om, at stemmeinput simpelthen "ikke virker" på dansk. De har prøvet det en eller to gange, fået absurde resultater, og besluttet, at det ikke er en brugbar teknologi.

Den konklusion var rigtig — dengang. Men teknologien har ændret sig dramatisk. Problemet er, at forventningerne ikke har fulgt med. Mange danskere antager stadig, at diktering er det samme som for fem år siden. De ved ikke, at præcis det problem, de oplevede, nu kan løses — hvis systemet er bygget rigtigt.

Det er som at konkludere, at navigation på telefonen ikke virker, fordi Nokia Maps var upræcis i 2008. Teknologien har bevæget sig. Men fordi den første oplevelse var så dårlig, prøver folk ikke igen.

Det handler ikke om accenten. Det handler om arkitekturen.

Næste gang diktering fejler på din telefon, så husk: problemet er ikke din dansk. Det er ikke din accent. Det er ikke det faktum, at du "taler for hurtigt" eller "mumler". Det er, at det system, du bruger, aldrig er blevet bygget til at forstå dit sprog.

Diktering på dansk behøver ikke at være dårlig. Den har bare været bygget af nogen, der ikke taler det.

Den forskel mærker man — første gang det faktisk virker.

Prøv diktering, der forstår dansk

Aivo er bygget fra bunden til nordiske sprog. Æ, ø og å inkluderet. Gratis at prøve på iPhone og Mac.