KI Risiko og Suksess

KI use-case prioritering som faktisk gir ROI

Forfatter: Irma Rustad
KI-Hjelpemidler:
ChatGPTGeminiNotebookLM

KI-bruken øker, men verdien uteblir ofte fordi virksomheter starter for mange initiativ uten tydelig gevinsthypotese, datagrunnlag eller eierskap. Denne...

KI use-case prioritering som faktisk gir ROI

PÅ FARTEN? LYTT ELLER SE

VIDEO_PREVIEW
PODCAST_STREAM

Oppsummering

KI-bruken øker, men verdien uteblir ofte fordi virksomheter starter for mange initiativ uten tydelig gevinsthypotese, datagrunnlag eller eierskap. Denne artikkelen gir en praktisk modell for å velge use-caser som faktisk leverer avkastning – og for å unngå at «mange små» blir et dyrt pilot-landskap.

I Norge peker både statistikk og offentlige funn på kompetansegap, juridisk usikkerhet og manglende forutsetninger for skalering.[1][2] Samtilig viser konkrete norske eksempler at ROI er fullt mulig når man prioriterer få, store nok use-caser med gode data og tydelig prosesseier.[3]

1. Hook: hvorfor ROI forsvinner i «mange små»

To mønstre går igjen når virksomheter «bruker KI», men likevel ikke kan peke på ROI:

  • Overproduksjon av initiativ: mange parallelle piloter som hver krever datauttak, sikkerhetsvurdering, juridiske avklaringer, endringsledelse og drift – uten felles plattformvalg eller prioritering.
  • Uklare forutsetninger: kompetanse, datatilgang og rammeverk for ansvarlig bruk er ikke på plass, som gjør veien til faktisk effekt lang.[1][2]

Dette er ikke et «norsk problem», men Norge har en ekstra praktisk utfordring: når mange virksomheter peker på kompetansemangel og usikkerhet rundt data/personvern og juridiske konsekvenser, blir terskelen for å industrialisere høyere.[1] Og internasjonalt ser vi samme dynamikk: en betydelig andel GenAI-prosjekter blir skrotet etter PoC fordi data, risiko-kontroller, kostnader og business value ikke henger sammen.[4]

Konsekvens: «mange små» blir dyrt fordi overheaden per initiativ blir dominerende. Løsningen er ikke mindre innovasjon – men hardere prioritering og porteføljestyring.

2. 2x2-modellen: verdi × gjennomførbarhet

Start med en enkel 2x2. Målet er å skille «bra idé» fra «bra investering».

AkseHva du vurdererTypiske signaler
VerdiØkonomisk effekt og strategisk betydningkostreduksjon, inntektsløft, risiko-reduksjon, compliance, tidskritikalitet
GjennomførbarhetSannsynlighet for å levere i produksjon innen rimelig tiddatatilgang, prosesseier, endringsbehov, integrasjoner, MLOps/forvaltning

Prioriteringsregel (pragmatisk): Velg 1–3 use-caser i øverste høyre kvadrant (høy verdi, høy gjennomførbarhet) til en styrt implementeringsbølge. Resten blir backlog – ikke «små piloter».

3. Datatilgang og datakvalitet: hva må være sant?

Gjennomførbarhet faller ofte på data. Gartner peker eksplisitt på datakvalitet som en hovedårsak til at prosjekter stopper etter PoC.[4] I Norge ser vi samme type barrierer: både kompetanse- og datagrunnlag er gjengangere i offentlige funn.[2]

Før du scorer en use-case høyt på gjennomførbarhet, bør dette være sant:

  • Datakilde er identifisert (system, eier, tilgangsmodell, retention).
  • Datakvalitet er «god nok» for formålet (dekningsgrad, feilrate, aktualitet).
  • Rettigheter og lovgrunnlag er avklart (særlig ved persondata).[1]
  • Observability-plan er tenkt (drift, avvik, drift i modell/ytre verden).[5]

Praktisk grep: Innfør et «data readiness»-krav som en egen score (0–5). Hvis data = 0–2, skal use-casen normalt ikke inn i første bølge, uansett hvor spennende den er.

4. Prosesseierskap: hvem eier gevinsten?

ROI lever i linja, ikke i et prosjektrom. Norske veiledere for gevinstrealisering er tydelige på at gevinster krever plan, eierskap og aktiv oppfølging – ellers blir de forventninger, ikke effekter.[6][7]

For hver use-case må du ha en navngitt prosesseier som kan svare ja på:

  • Hvilken KPI skal endres, og hva er baseline?
  • Hvilke endringer i arbeidsflyt må til for å hente ut gevinsten?
  • Hvem tar kostnaden (tid/penger) og hvem tar gevinsten (P&L/OKR)?

Tommelregel: Use-caser uten prosesseier skal ikke prioriteres for produksjon. De kan ligge i idébank til eierskap finnes.

5. Risiko: høyrisiko vs «light» (AI Act-linse)

Ikke alle use-caser har samme «compliance-friksjon». EU AI Act skiller mellom risikonivåer, og høyrisiko (typisk der KI påvirker viktige beslutninger om mennesker/tilgang til tjenester) innebærer mer dokumentasjon, kontroll og styring.[8][9]

Praktisk scoring: Gi hver use-case en risikoklasse som påvirker gjennomførbarhet:

  • Light: intern produktivitet, støttefunksjoner, lav påvirkning på rettigheter/sikkerhet (ofte rask ROI, lavere regulatorisk kost).
  • Høyrisiko: f.eks. HR-screening, kreditt, tilgang til essensielle tjenester, sikkerhetskritiske domener (lengre vei til ROI, men kan være strategisk nødvendig).[9]

Bruk NIST AI RMF sin logikk (govern–map–measure–manage) som en enkel sjekkliste for risikoreduserende tiltak allerede i prioriteringen.[5]

6. Porteføljestyring: slik unngår du «pilot-inflasjon»

Når alt er «pilot», er ingenting prioritet. Porteføljestyring handler om å:

  • holde en felles use-case-backlog med standardisert score,
  • finansiere få initiativ om gangen,
  • ha tydelige beslutningsporter og kill-kriterier.

En enkel metode for å rangere toppkandidater er WSJF (kostnad ved forsinkelse delt på jobb-størrelse). Det gir prioritet til høy verdi og rask levering – som er selve ROI-motoren.[10]

Hvorfor «mange små» blir dyrt: Du betaler gang på gang for oppstart (sikkerhet, data, juridisk, endring, drift), og du får ikke stordriftsfordeler. Gartner peker på eskalerende kostnader og uklart business value som typiske stoppunkt.[4]

7. Praktisk oppskrift: scorekort, porter og kill-kriterier

Her er et scorekort du kan bruke i en 60–90 minutters portefølje-workshop:

KategoriScore (0–5)Spørsmål
Verdi0–5Hva er forventet effekt (kr, tid, risiko), og hvor sikker er hypotesen?
Gjennomførbarhet0–5Kan vi levere i produksjon innen 8–16 uker uten «mirakler»?
Data readiness0–5Har vi data, tilgang, kvalitet og rettigheter avklart?
Prosesseier0–5Finnes navngitt eier av KPI og endring i linja?
Risiko0–5Er dette høyrisiko (AI Act), og hva koster kontrollene i tid/penger?
Beslutningsporter (minimum):
  • Port 0 – idé til kandidat: problem, prosess, eier, KPI.
  • Port 1 – data og rettigheter: datarevisjon + juridisk avklaring.
  • Port 2 – produksjonsklar: sikkerhet, drift/monitorering, endring i prosess.

Kill-kriterier (for å beskytte tempo): Hvis en use-case ikke får data- og eierskap-score over terskel innen avtalt tid, stoppes den og flyttes tilbake i backlog. Dette er et kvalitetstegn, ikke et nederlag.

8. Mini-case: slik ser prioritering ut når ROI er målet

Norsk eksempel (kort): Norges Bank har beskrevet et pilotprosjekt (startet i 2023) der KI brukes til å redusere handelskostnader ved å forutse endringer i referanseindekser og predikere hvilke aksjer fondet handler mye i. De beskriver at dette krever store datamengder, og at besparelsene utgjør «flere hundre millionar kroner».[3]

Hvorfor dette scorer høyt på ROI:
  • Høy verdi: små prosentforbedringer på enorme volum gir stor effekt.
  • Høy gjennomførbarhet: sterke interne datakilder og tydelig prosesseierskap.
  • Kontrollbehov er håndterbart: klart definert domene og mål, og driftbarhet kan bygges gradvis.

Overført til «vanlige» virksomheter: se etter use-caser med samme signatur: (1) høy volum/repeterbar prosess, (2) tilgjengelige data, (3) navngitt prosesseier, (4) begrenset regulatorisk friksjon i første bølge.

9. Videre: koble prioritering til måleplan og kontrollspor

Når topp 1–3 use-caser er valgt: ikke bygg «flere piloter». Bygg en styrt leveranse med måleplan/kontrollspor. For hvordan dette settes opp uten å miste fart, se vår metodebeskrivelse her:

Referanser

  1. Statistisk sentralbyrå (SSB): Bruken av KI har skutt fart det siste året (24.09.2025). ssb.no
  2. Riksrevisjonen: Bruk av kunstig intelligens i staten (Dokument 3:18 (2023–2024)) (offentliggjort 02.09.2024). riksrevisjonen.no
  3. Norges Bank: Tangen: hearing – management of the Government Pension Fund Global (13.05.2025). norges-bank.no
  4. Gartner: Gartner Predicts 30% of Generative AI Projects Will Be Abandoned After Proof of Concept By End of 2025 (29.07.2024). gartner.com
  5. NIST: AI Risk Management Framework (AI RMF 1.0) (2023). nist.gov
  6. Direktoratet for forvaltning og økonomistyring (DFØ): Veileder i gevinstrealisering (PDF). dfo.no
  7. Digdir (Prosjektveiviseren): Gevinstrealisering i de ulike fasene (11.05.2023). prosjektveiviseren.digdir.no
  8. EUR-Lex: Regulation (EU) 2024/1689 (Artificial Intelligence Act). eur-lex.europa.eu
  9. European Commission – AI Act Service Desk: High-risk AI systems (Annex III) – overview and guidance. artificialintelligenceact.eu
  10. Scaled Agile (SAFe): WSJF (Weighted Shortest Job First). framework.scaledagile.com