Vi hjælper kommuner og myndigheder med at forstå, regulere og bruge AI på en forsvarlig, etisk og sikker måde — gennem viden, rådgivning og fællesskab.
Ansvarlig AI er Danmarks faglige referencepunkt for ansvarlig brug af kunstig intelligens i den offentlige sektor. Vi kombinerer uafhængig forskning med praktisk rådgivning, så kommuner og myndigheder kan navigere i AI-landskabet med tillid og kompetence.
Vi er ikke leverandører af AI-systemer. Vi er den neutrale stemme, der hjælper det offentlige med at stille de rigtige spørgsmål — og finde de rigtige svar.
Hvem vi erVi har ingen kommercielle interesser i AI-systemer. Vores analyser og anbefalinger er altid fagligt forankrede og upartiske.
Vi forstår de særlige hensyn, krav og udfordringer der gælder, når AI skal implementeres i offentlige institutioner.
Vi omsætter EU's AI Act og dansk lovgivning til konkrete, handlingsorienterede governance værktøjer og vejledninger der virker i hverdagen.
Kompakte, handlingsorienterede forløb der hjælper kommuner med at udvikle stærk AI governance, med fokus på strategier, policies, risikovurderinger, tekniske værktøjer og organisationsstruktur.
Vi holder fagligt stærke foredrag, keynotes og workshops der taler konkret om ansvarlig AI i praksis — hvorfor det er vigtigt og hvad det betyder i netop jeres kontekst, tilpasset jeres udfordringer og jeres niveau. I går hjem med viden og redskaber I kan bruge med det samme.
Gratis netværk for kommuner og offentlige aktører. Hver 14. dag mødes vi online til Q&A og videndeling om AI governance i praksis.
Laura Haaber Ihle har arbejdet med AI og etik siden 2016. Med en ph.d. der krydser filosofi, jura, statskundskab og økonomi bringer hun et tværfagligt blik på de spørgsmål, som AI rejser for samfund og organisationer. Hun har en baggrund som researcher på Harvard University, og har gennem mange år opbygget bred erfaring med AI governance i både den offentlige og private sektor.
Hun har rådgivet kommuner og offentlige myndigheder i Danmark om ansvarlig AI og AI governance i praksis, og er grundlægger af Ansvarlig AI — Danmarks faglige referencepunkt for ansvarlig brug af AI i den offentlige sektor. Laura bidrager løbende til den offentlige debat gennem medier som Ingeniøren, Mandag Morgen, Zetland og MIT Sloan Management Review.
Vi kombinerer kompetencer på tværs af filosofi, jura, teknologi og offentlig forvaltning — med international erfaring fra både den private og offentlige sektor.
Internationale eksperter med dyb specialviden inden for AI-etik, teknisk governance og AI-lovgivning.
Filosof og founder af AI Ethics Lab, en af de første organisationer dedikeret udelukkende til AI-etik i praksis. Director of Responsible AI Practice ved Northeastern University med en ph.d. i anvendt etik. Har rådgivet World Economic Forum, UNICRI og INTERPOL, og var tidligere tilknyttet Harvard Law School, Harvard School of Public Health og WHO. To gange TEDx-taler og kåret som én af "100 Brilliant Women in AI Ethics".
Datalog og ekspert i AI-sikkerhed med speciale i evaluering og robusthed af store sprogmodeller. Assistant Professor ved Northeastern University og teknisk leder for Responsible AI Practice. Founder af MeronymLabs og rådgiver til Meta som Scientific Expert Advisor om AI-sikkerhed. Arbejder på tværs af akademia, industri og den offentlige sektor for at reducere AI risici. Ph.d. i datalogi fra University of Hull.
Advokat med jurauddannelse fra University College Dublin og University College Cork og speciale i international erhvervsjura og AI Law. Arbejder i skæringspunktet mellem AI-lovgivning, compliance og ansvarlig AI-praksis — med fokus på at hjælpe organisationer med at navigere i et komplekst og hurtigt udviklende regulatorisk landskab. Certificeret i AI-etik fra London School of Economics.
EU's AI Act er nu gældende lov, og kravene indfases løbende frem mod 2027. KL's side samler løbende vejledning og opdateringer specifikt målrettet kommunernes situation — et nødvendigt udgangspunkt for enhver kommunal AI-ansvarlig.
GDPR og AI-forordningen skaber til tider modstridende krav. Datatilsynet har fastslået, at samtykke sjældent er gyldigt grundlag for AI-behandling af personoplysninger — en afgørelse der rammer mange kommunale løsninger direkte. Afgørende læsning for alle der vil sikre lovlig AI-brug.
Et af de mest praktiske bidrag til feltet: kravene fra GDPR og AI-forordningen destilleret til syv konkrete trin. Tilgangen er handlingsorienteret og juridisk solid — særligt nyttig for kommuner der er ved at udrulle nye AI-løsninger og vil sikre compliance fra dag ét.
En vejledning til kommunale fagprofessionelle og ledere. Gennemgår de vigtigste risici ved AI i socialt arbejde — fra bias og diskrimination til borgernes retssikkerhed — og giver seks konkrete skridt til ansvarlig implementering.
Chatbots, tekstgenerering, automatisk sagsbehandling — generativ AI vinder hurtigt indpas. Men hvornår er det lovligt? KL's guide giver konkrete opmærksomhedspunkter og adresserer særligt de nye krav om AI-færdigheder, som AI-forordningen stiller til alle medarbejdere der arbejder med AI.
For ledere og chefer der skal forstå AI-risici og governance uden at være tekniske eksperter. Webinaret giver et strategisk overblik over, hvad ansvarlig AI kræver af organisationen — fra politisk forankring til konkrete governancestrukturer.
Trin-for-trin guide til at udvikle en lokal AI-strategi og -politik der opfylder krav og skaber reel værdi. Guiden tager udgangspunkt i kommunernes konkrete udfordringer og giver et handlekraftigt udgangspunkt for ledere der vil komme i gang.
Praktisk tjekliste til brug når kommuner skal vurdere og godkende nye AI-løsninger fra leverandører. Dækker tekniske, juridiske og organisatoriske risikoaspekter — og kan bruges direkte i indkøbsprocessen.
Når en AI begår fejl i en kommunal sagsbehandling — hvem er så ansvarlig? Dataetisk Råds rapport stiller de spørgsmål der ofte overses: om pålidelighed, ansvarsplacering og dataetik. Vigtig læsning for ledere der vil forstå de etiske implikationer inden de tager beslutning om nye AI-systemer.
Hvornår må offentlige myndigheder bruge AI i afgørelsesprocesser — og hvilke garantier skal være på plads? En gennemgang af de juridiske og etiske krav til automatiseret sagsbehandling, med fokus på borgernes retssikkerhed og myndighedernes ansvar.
AI rummer et stort potentiale for at aflaste offentlige medarbejdere — men kun hvis implementeringen sker klogt. DA's rapport kortlægger potentialet og præsenterer syv anbefalinger til indfasning af AI. Relevant for kommuner der vil have et fagligt funderet beslutningsgrundlag.
Danmarks første samling af viden om AI-brug i det offentlige — nationale og internationale rapporter, cases og analyser. Et godt sted at holde sig løbende opdateret om ny forskning og erfaringer fra andre kommuner og myndigheder.
Næste møde i Netværket for Ansvarlig AI fokuserer på erfaringer fra kommuner der bruger AI i myndighedsudøvelse. Mød ligesindede, stil spørgsmål og del udfordringer i et trygt forum — helt gratis for alle offentlige aktører.
Danmarks dedikerede konference for ledere, IT-beslutningstagere og AI-ansvarlige på kommunalt, regionalt og statsligt niveau. Et unikt forum for videndeling, netværk og strategisk orientering om AI i det offentlige.
Kommunale ledere, specialister og praktikere samles til en intens dag om at gøre AI konkret, ansvarlig og værdiskabende i hverdagen. Med cases fra kommuner der allerede er i gang og plads til de svære spørgsmål.
Regeringen, KL og Danske Regioner har formuleret et fælles målbillede for kunstig intelligens i det offentlige — med en ambition om at frigøre mindst 50 mio. timer frem mod 2035. Rapporten sætter rammen for den strategiske retning og er afgørende baggrundslæsning for kommuner der vil forstå, hvad der forventes af dem.
Hvert år kortlægger KL's Teknologiradar hvilke teknologier der skaber mest værdi i kommunerne. I 2025 er AI rykket til toppen — og rapporten viser konkret hvilke løsninger kommunerne faktisk bruger, og hvor de reelle gevinster opstår. Et stærkt udgangspunkt for kommuner der vil prioritere klogt.
Forskning fra Syddansk Universitet undersøger, hvad der skal til for at borgere og medarbejdere opbygger reel tillid til AI i kommunale sammenhænge. Rapporten peger på at troværdighed ikke skabes af teknologien alene — men af de organisatoriske og etiske rammer den opererer inden for.
Advokatfirmaet DLA Piper udgiver løbende opdateringer om ny digital regulering i Danmark og EU — fra AI Act og GDPR til datasikkerhed og platform-regulering. En nyttig ressource for kommunale jurister og compliance-ansvarlige der vil holde sig opdateret uden at læse al primærkilden selv.
En skarp og nødvendig advarsel fra en af Danmarks mest markante tech-filosoffer: at bevæge sig hurtigt på AI uden et solidt etisk fundament er ikke fremsynet — det er risikabelt. En artikel der stiller de spørgsmål, som mange AI-projekter i det offentlige endnu ikke har besvaret.
Politisk filosof Ted Lechterman mener, at AI potentielt kan træffe bedre beslutninger end mennesker — men kun hvis udfordringer som bias og manglende transparens løses. En tankeprovoerende artikel om demokratiets fremtid i en verden med avanceret AI, der rammer direkte ind i den offentlige sektors kernedilemmaer.
AI giver grundlæggende nye muligheder for manipulation i stor skala — og det er ikke en fjern fremtidsrisiko, men en aktuel udfordring for demokratiet. En vigtig og velskrevet analyse af hvad det betyder for samfundets tillidsstrukturer, når teknologien gør det muligt for alle at producere overbevisende misinformation.
Deepfakes er ikke blot et teknisk fænomen — de udgør en reel trussel mod den fælles virkelighed som demokratiet hviler på. Når AI gør det umuligt at skelne ægte fra falsk, undermineres tilliden til billeder, lyd og udsagn på tværs af samfundet. En artikel der tager problemet alvorligt og stiller de nødvendige spørgsmål.
En samtale om hvordan AI reelt anvendes i virksomheder, hvilke etiske konsekvenser det medfører, og hvorfor solid governance er en forudsætning — ikke en eftertanke. Episoden berører også EU AI Act og de dokumentationskrav, mange danske virksomheder endnu ikke er klar til. Med Laura Haaber Ihle, AI Ethicist ved Northeastern University og Harvard, og Hans Petter Dalen, IBM.
Et interview med Laura Haaber Ihle om hendes arbejde med algoritme-revision i store amerikanske virksomheder — og om hvorfor Danmark sakker bagud, når det gælder reel forståelse af AI's konsekvenser. En af de mere direkte og ærlige samtaler om kløften mellem teknologisk ambition og ansvarlig praksis.
Artikel fra MIT Sloan Management Review om hvorfor gennemsigtighed around AI-brug er afgørende for tillid — hos kunder, borgere og samarbejdspartnere. Når organisationer ikke oplyser om deres brug af AI, risikerer de ikke blot omdømmetab, men en grundlæggende erosion af den tillid som al relation hviler på. Artiklen indeholder perspektiver fra Laura Haaber Ihle.
Uanset om du ønsker et foredrag, et rådgivningsforløb, eller blot vil vide mere om vores netværk — så hører vi gerne fra dig.