Når kommunerne i 2026 for alvor tager kunstig intelligens i brug til alt fra mødereferater og sagsforberedelse til borgervejledning, sker det ofte uden klare rammer for AI-etik, ansvar og kontrol. Det er erfaringen hos eksperter i cybersikkerhed fra rådgivningshuset Nesp.ONE.
“Når vi er ude og rådgive kommuner om cybersikkerhed og AI, bliver vi næsten aldrig spurgt om, hvordan teknologien anvendes etisk eller ansvarligt. Fokus er typisk på effektivisering og muligheder, ikke på konsekvenserne,” siger Karsten Vamdrup, ekspert og lektor i cybersikkerhed og partner i Nesp.ONE.
Risiko for bias
Danmark er et af verdens mest digitaliserede samfund, og potentialet for AI i kommunerne er stort. Men netop fordi kommunerne arbejder med personoplysninger og følsomme data, kan forkert brug af AI få meget alvorlige konsekvenser.
AI-systemer kan, hvis de ikke er korrekt designet og overvåget, forstærke eksisterende bias. Det kan betyde, at bestemte borgere systematisk får dårligere vejledning, prioriteres lavere i sagsbehandling eller mødes af beslutninger, der bygger på skæve eller ufuldstændige data.
“Hvis et AI-system bruges som beslutningsstøtte i for eksempel sociale sager, og ingen løbende kontrollerer datagrundlaget, risikerer man diskrimination uden at opdage det,” forklarer Martin Schulze, der er cybersikkerhedsekspert og partner i Nesp.ONE.
Hvem har ansvaret, når AI træffer fejl?
Et andet problem er manglen på klar ansvarsplacering. Mange kommuner har endnu ikke taget stilling til, hvem der fører tilsyn med AI-systemet, hvem der reviderer dem og hvordan man sikrer det såkaldte human in the loop.
Human in the loop betyder, at der altid er et menneske, som kan forstå, udfordre og revidere AI’ens output. Uden den mekanisme risikerer kommunerne, at automatiserede anbefalinger i praksis bliver opfattet som beslutninger.
“Når medarbejdere ikke har mulighed for at forstå eller udfordre AI’ens anbefalinger, risikerer man, at teknologien i praksis overtager beslutninger. Derfor er human in the loop helt afgørende,” siger Martin Schulze.
Konsekvenserne kan være alvorlige
Hvis AI ikke anvendes etisk og ansvarligt, kan konsekvenserne blive både alvorlige og meget konkrete. Mangelfuld styring kan føre til brud på databeskyttelsen, manglende overholdelse af ny EU-regulering som AI Act og i sidste ende et tab af borgernes tillid. Samtidig risikerer kommunerne betydelige økonomiske sanktioner i form af EU-bøder, hvis lovgivningen ikke overholdes.
“Uden etisk og ansvarlig brug af AI er effektivisering en illusion. Skal kommunerne have fuldt udbytte af teknologien, kræver det, at den anvendes trygt, lovligt og med borgernes tillid,” understreger Martin.
Behov for fælles retning
Ifølge eksperterne kræver ansvarlig brug af AI, at kommunerne fra start tager aktiv stilling til etik og ansvar. Det handler om at fastlægge klare retningslinjer for brugen af AI, sikre løbende kontrol og gøre det tydeligt, hvem der har det løbende og endelige ansvar, når teknologien bruges i praksis.
Kun sådan kan AI blive et redskab, der både effektiviserer den kommunale drift og styrker tilliden i det digitale velfærdssamfund.
Tre områder, hvor kommuner risikerer at fejle med AI
- Uklar ansvarsplacering mellem IT, jura og fagområder
- Manglende politisk stillingtagen
- Brug af AI-værktøjer uden dokumentation og logning
Nesp.ONE
- Eksperthus i cybersikkerhed og IT-compliance med kunder i hele Europa.
- Førende eksperter indenfor ISO27000, NIS2 og AI act.
- Har en mission om rådgivning, der er direkte anvendelig og funktionel.