10. september 2025

AI-policy for bedrifter: mal, sjekkliste og eksempler (2025)

Hvorfor en AI-policy nå?

AI brukes allerede i e‑post, dokumenter, kundeservice og analyse. Uten tydelige rammer oppstår tre problemer: utrygg deling av data, ujevn kvalitet og uklarhet om ansvar. En enkel, praktisk AI‑policy gjør at teamet kan bruke verktøyene trygt – uten å bremse innovasjon.

Risikoene policyen adresserer

  • Personvern og datasikkerhet: utilsiktet deling av personopplysninger eller hemmeligheter i åpne verktøy.
  • Kvalitet og etterprøvbarhet: svar uten kildegrunnlag, «hallusinasjoner» og uforutsigbar stil.
  • Etterlevelse og sporbarhet: manglende logging, uklart eierskap og fravær av godkjenning i kritiske prosesser.
  • Skykost og skygge‑IT: ukontrollerte lisenser, forbruk og uautoriserte apper.

Kilde: Datatilsynet – Virksomhetenes plikter (https://www.datatilsynet.no/rettigheter-og-plikter/virksomhetenes-plikter/)

Gevinster ved tydelige rammer

  • Trygg bruk: team vet hva som kan deles, og hvilke verktøy som er godkjent.
  • Bedre kvalitet: kildekrav, maler og «menneske‑i‑løkken» der det trengs.
  • Raskere adopsjon: opplæring og støtte på plass, mindre tvil og venting.
  • Styring: logging, måling og budsjettgrenser fra dag én.

Kilde: NIST AI Risk Management Framework (https://www.nist.gov/itl/ai-risk-management-framework)

Hva bør AI‑policyen inneholde? (mal)

Bruk dette som utgangspunkt. Tilpass til virksomhetens risiko, bransje og data.

Formål og scope

  • Formål: muliggjøre trygg, effektiv og etisk bruk av AI.
  • Omfang: gjelder alle ansatte, konsulenter og systemer som bruker AI‑tjenester i arbeid.
  • Unntak: egne regler for forskning, testmiljøer eller anbudsprosesser der det er nødvendig.

Kilde: Regjeringen – Nasjonal strategi for kunstig intelligens (https://www.regjeringen.no/no/dokumenter/nasjonal-strategi-for-kunstig-intelligens/id2685594/)

Definisjoner (LLM, RAG, personopplysninger)

  • Generativ AI/LLM: modeller som produserer tekst, kode eller bilder.
  • RAG (Retrieval Augmented Generation): svar forankres i egne dokumenter med kildevisning.
  • Personopplysninger: alle opplysninger som kan knyttes til en person.

Roller og ansvar

  • Eier av policy (CIO/CMO/COO etter behov): oppdaterer og forvalter policyen.
  • Dataeier: godkjenner kilder som kan brukes i AI‑verktøy.
  • Fagansvarlig: kvalitetssikrer svar i regulatoriske prosesser.
  • Sikkerhet/Personvern: gjennomfører DPIA ved behov og overvåker avvik.
  • Sluttbrukere: følger policy, melder avvik og forbedringsforslag.

Data og personvern (GDPR)

  • Behandlingsgrunnlag: avklar samtykke/avtale/berettiget interesse før bruk av personopplysninger.
  • Dataminimering: del kun nødvendige opplysninger. Anonymiser der mulig.
  • Lagring og region: prioriter EU/EØS. Bruk databehandleravtaler og egnede overføringsmekanismer.
  • Innsyn/sletting: dokumenter hva som lagres, hvor og hvorfor. Ha rutiner for sletting.

Kilde: Datatilsynet – Virksomhetenes plikter (https://www.datatilsynet.no/rettigheter-og-plikter/virksomhetenes-plikter/)

Brukerregler: hva kan og ikke kan deles

  • Ikke del: personopplysninger, kundedata, forretningshemmeligheter eller sikkerhetsinformasjon i åpne/verifiserte‑ikke verktøy.
  • Del trygt: offentlige tekster, anonymiserte eksempler, generisk innhold.
  • Bruk kun godkjente verktøy med SSO/RBAC og logging.

Kvalitet og kildebruk

  • Krav om kildegrunnlag i svar som brukes eksternt eller i beslutningsstøtte.
  • «Menneske‑i‑løkken» i juridiske, finansielle og regulatoriske prosesser.
  • Maler for tone, struktur og kildehenvisning.

Sikkerhet, logging og sporbarhet

  • Aktiver logging og revisjon av AI‑forespørsler i virksomhetsverktøy.
  • Tilgangsstyring: minste privilegium, separate miljøer (test/produksjon).
  • Kostkontroll: caps, varsler og månedlig rapport per team.

Kilde: NIST AI RMF (https://www.nist.gov/itl/ai-risk-management-framework)

Opplæring og støtte

  • Kortkurs for alle: brukeregler, kilder og eksempler.
  • «Prompt‑bibliotek» og maler på intranett.
  • Kanal for spørsmål/avvik (f.eks. #ai‑policy i samhandlingsverktøy).

Sjekkliste for ledere

Minimumskrav før pilot

  • Definert use case, mål og akseptkriterier
  • Godkjente datakilder og eierskap avklart
  • Valgt verktøy med SSO/RBAC og logging
  • DPIA vurdert ved behandling av personopplysninger
  • Maler for tone/kilder, «menneske‑i‑løkken» definert
  • Kosttak og varslingsgrenser satt

Krav i produksjon

  • Kilder versjonert og oppdatert (RAG der det er relevant)
  • Dashbord for kvalitet (presisjon, kildeandel) og effekt (tid/kost)
  • Hendelseshåndtering og revisjonsrutiner etablert
  • Kvartalsvis policy‑review med eier, personvern og fagansvarlige

Implementering på 30–60–90 dager

0–30: Forankring, mal og risikovurdering (DPIA)

  • Forankre mål og policy hos ledelse og fagansvarlige.
  • Tilpass denne malen til bransje og risiko.
  • Kartlegg data og vurder DPIA ved personopplysninger.
  • Velg godkjente verktøy og sett opp testmiljø med logging.

For grunnleggende begreper og bruksområder for AI i virksomheten, les mer om dette i vår hovedartikkel: les mer om dette i vår hovedartikkel.

31–60: Pilot og policy i praksis

  • Kjør pilot med 10–30 brukere, bruk maler og kildekrav.
  • Mål kvalitet (presisjon, kildeandel) og effekt (tid spart).
  • Juster policy, maler og datakilder basert på funn.

61–90: Utrulling og forbedring

  • Rull ut til flere team. Etabler opplæring og støttekanaler.
  • Sett faste rapporter: kvalitet, effekt, kost og avvik.
  • Planlegg neste use case. Skaler der gevinsten er dokumentert.

Kilde: Regjeringen – Nasjonal strategi for kunstig intelligens (overordnede prinsipper) (https://www.regjeringen.no/no/dokumenter/nasjonal-strategi-for-kunstig-intelligens/id2685594/)

Eksempler på policyformuleringer

  • Deling og data
    • «Det er ikke tillatt å legge inn personopplysninger, kundedata eller forretningshemmeligheter i åpne AI‑tjenester.»
    • «Kun godkjente dokumentkilder kan indekseres for RAG. Dataeier godkjenner kilder.»
  • Kvalitet og kilder
    • «Svar som brukes eksternt eller i beslutningsstøtte skal vise kilder. Mangler kildegrunnlag, skal svar kvalitetssikres av fagansvarlig.»
  • Sikkerhet
    • «AI‑bruk skal skje på verktøy med SSO/RBAC, logging og EU/EØS‑lagring der mulig.»
  • Ansvar
    • «Bruker er ansvarlig for å følge policy. Fagansvarlig godkjenner i kritiske prosesser. Avvik meldes i etablerte kanaler samme dag.»

Måling og etterlevelse (governance)

KPIer: kvalitet, risiko, kost

  • Kvalitet: presisjon, andel svar med kilde, avvik oppdaget før utsendelse.
  • Effekt: tid spart per oppgave, gjennomløpstid i prosess, agent‑/brukertilfredshet.
  • Kost: lisens + forbruk per team, kost per løst henvendelses‑case.

Kilde: NIST AI RMF (https://www.nist.gov/itl/ai-risk-management-framework)

Revisjon og hendelseshåndtering

  • Kvartalsvis policy‑review og stikkprøver av svar.
  • Hendelser: stopp regel, varsel til sikkerhet/personvern, rotårsaksanalyse, forbedringstiltak.
  • Dokumentasjon: sporbarhet for hvem som gjorde hva, når og hvorfor.

Vanlige feil – og hvordan du unngår dem

  • Uklare grenser for deling: lag enkel «grønn/gul/rød»‑liste for data.
  • Manglende kilder: innfør RAG der presisjon er viktig, og krev kildevisning.
  • Ingen «menneske‑i‑løkken»: definér godkjenning i juridiske/finansielle løp.
  • Skygge‑IT: godkjenn et minimumssett verktøy og gjør dem lett tilgjengelige.
  • Ingen måling: sett nullpunkt før pilot og følg utvikling ukentlig første 8 uker.

Neste steg (CTA)

  • Book en prat – vi hjelper deg å tilpasse AI‑policy og implementere 30–60–90‑planen.
  • Få gratis AI‑vurdering – rask sjekk av dataflyt, verktøyvalg og risikopunkter.

FAQ: Ofte stilte spørsmål om AI‑policy

Må vi ha en AI‑policy for å teste AI internt?

Ja, men start enkelt. En én‑siders policy + godkjente verktøy og kildekrav kommer langt i en pilot.

Hvordan sikrer vi at ansatte faktisk følger policyen?

Gjør det lett å gjøre rett: godkjente verktøy, maler, kortkurs og en lavterskel kanal for spørsmål.

Må alle svar ha kildehenvisning?

Nei, men svar som brukes eksternt eller i beslutningsstøtte bør ha kilder. Internt utkast kan være uten, men kvalitetssjekkes.

Når trenger vi DPIA?

Når dere behandler personopplysninger i nye eller endrede prosesser med AI‑teknologi. Vurder alltid risiko først.

Kilde: Datatilsynet – Virksomhetenes plikter (https://www.datatilsynet.no/rettigheter-og-plikter/virksomhetenes-plikter/)

Er generativ AI lovlig å bruke i bedriften?

Ja, men bruken må følge GDPR, sikkerhetskrav og interne policyer for data og kvalitet.

Hva er RAG – og når bør vi bruke det?

RAG henter utdrag fra egne dokumenter som grunnlag for svar. Bruk det når presisjon og etterprøvbarhet er viktig (kundeservice, policy, kontrakt).

Kilde: NIST AI RMF (rammer for kvalitet og risiko) (https://www.nist.gov/itl/ai-risk-management-framework)

Klar for å implementere AI i din bedrift?

Vi hjelper bedrifter med å ta i bruk AI-teknologi på en trygg og effektiv måte. Få en gratis konsultasjon i dag.

Få en gratis demo