Aktuelt | Habberstad

EU AI Act : Loven som regulerer beslutninger ikke bare KI-teknologi

Skrevet av Idunn Soldal Herheim | 19.mar.2026 11:31:20

EU AI Act representerer et grunnleggende skifte i hvordan Europa og dermed også Norge regulerer bruk av kunstig intelligens. Loven handler ikke primært om teknologi, men om styring, ansvar og beslutningsmyndighet i en tid der intelligente systemer i økende grad påvirker mennesker, tjenester og samfunnsfunksjoner. 

For ledere og styrer betyr dette nye krav,  men også nye muligheter.

EU AI Act - Mennesker, teknologi og makt 

Tidligere digitale reguleringer har i stor grad handlet om datasikkerhet, personvern og infrastruktur. EU AI Act går dypere. Den regulerer hvordan beslutninger tas, når mennesker og maskiner samarbeider, og når deler av beslutningsmakten flyttes fra mennesker til algoritmer. EU AI Act uttrykker et grunnleggende skifte i hvordan Europa, og dermed også Norge, forstår forholdet mellom mennesker, teknologi og makt. Loven setter mennesker i sentrum for teknologisk utvikling og regulerer hvordan beslutningsmyndighet skal utøves når intelligente systemer i økende grad deltar i styring, arbeid og samfunnsfunksjoner. EU AI Act har en risikobasert tilnærming til bruk av KI.

Hvem gjelder loven for?

EU AI Act gjelder allerede for virksomheter som opererer i EUs indre marked (som for eksempel har kunder i de nordiske landene i EU), sommeren 2026 er planen at sanksjonsbestemmelsene i loven skal begynne å gjelde.

Gjennom EØS-prosessen vil EUs forordning bli gjort gjeldende i norsk rett. Det betyr at krav til transparens, ansvarlighet og risiko- håndtering forankres i norsk lovgivning, med nødvendige tilpasninger gjennom EØS-mekanismen. Resultatet er et rammeverk som gjør KI-bruk ansvarlig, sporbar og legitim, samtidig som det gir virksomheter tydelige styringsprinsipper og handlingsrom innen norsk forvaltnings- og rettspraksis.

EU AI Act fases inn gradvis 

EU AI Act innføres trinnvis. Først kom forbud mot uakseptabel risiko i 2025, deretter krav til åpenhet og transparens, før de fulle kravene til styring av høyrisiko fases inn i løpet av 2026–2027. For ledere og styrer er det særlig høyrisiko som får størst betydning. For virksomheter  som kategoriseres som høyrisiko krever loven at styring bygges inn i operasjonell drift og den krever «human oversight».

Hvilke virksomheter kan etter loven kategoriseres som høyrisiko? 

  • Finans og forsikring

  • Helse og medisin

  • Offentlige og sosiale tjenester

  • Forsvar, sikkerhet og beredskap

  • Politi og rettsvesen

  • Rekruttering og HR

  • Energi, transport og kritisk infrastruktur

Det er konteksten som er avgjørende for risikovurderingen. For å få dette til å fungere i praksis må styret, alle ledere og ansatte forstå ansvarlig bruk av KI i det daglige arbeidet. Det er ikke nok å ha retningslinjer, policy eller oppnevnte råd som skal sørge for tilfredsstillende etterlevelse. Loven krever at både såkalte brukere (deployer) og tilbyder (provider) etablerer et ansvarlighetsrammeverk, kvalitetsledelsessystem og risikostyring på virksomhetsnivå gjennom en helhetlig tilnærming.

 

Høyrisiko KI og operasjonell styring

 

EU AI Act representerer et nytt skifte i europeisk regulering, bygget på et grunnleggende prinsipp: mennesker skal være i sentrum for all teknologisk utvikling. Mens tidligere digitale reguleringer i hovedsak har vært rettet mot infrastruktur, datasikkerhet og informasjonsforvaltning, regulerer EU AI Act noe langt mer grunnleggende, nemlig hvordan beslutningsmyndighet utøves når den delvis flyttes fra mennesker til maskiner, og når mennesker og maskiner skal samarbeide og lære av hverandre.

EU AI Act er tett forankret i europeisk forvaltnings- og rettspraksis, og i samsvar med ambisjonene bak Industri 5.0, der teknologi ikke bare skal være effektiv, men også «human centric», bidra til samfunnets verdiskaping og utformes slik at den er ansvarlig, sporbar og legitim over tid.

 

KI i beslutningskjeden krever tydelig ansvar og operasjonell styring 

Når KI‑systemer påvirker menneskers rettigheter, plikter, tilgang til tjenester eller økonomiske utfall, kan ikke ansvar pulveriseres i algoritmer, leverandørkjeder eller organisatoriske gråsoner. Organisatoriske gråsoner skaper flaskehalser i beslutningskjeden og øker risikoen. Derfor bør flaskehalser fjernes, ellers vil byråkrati og behovet for koordinering eskalere med bruk av KI, dvs. at kostnadene for virksomheten øker ved å ta i bruk KI sporadisk.

En mer bærekraftig tilnærming er å jobbe top‑down, der KI‑initiativer forankres i virksomhetens strategi, målstruktur og organisering. Da blir KI et verktøy for verdiskaping og ikke en kilde til økt kompleksitet.

EU AI Act er derfor først og fremst en styringslov. Den stiller grunnleggende spørsmål som ledere og styrer må kunne svare tydelig på:

  • Hvordan brukes AI?

  • Hvem er ansvarlig?

  • Hvordan tas beslutninger og kan de spores?

  • Hvordan håndteres risiko i praksis?

Dokumentasjon alene er ikke tilstrekkelig. KI‑systemer lærer kontinuerlig, og beslutningsutfall kan endre seg over tid. EU AI Act krever derfor operasjonell styring, der beslutninger kan forklares i sanntid, ansvar er tydelig plassert, og styring er integrert i den faktiske verdiskapningen, ikke bare beskrevet på papiret. 

EU AI Act som konkurransefortrinn

EU AI Act blir ofte omtalt som nok et regulatorisk lag som må håndteres, tolkes og etterleves. For mange virksomheter utløser dette en instinktiv respons: compliance først, innovasjon senere. Det er forståelig, men strategisk risikabelt.

Spørsmålet for styremedlemmer og ledere er ikke om EU AI Act skal etterleves. Det er gitt.

Spørsmålet er nå hvordan virksomheten velger å bruke den.

Les mer om organisasjonsutvikling og kunstig intelligens 

EU EU AI Act representerer et grunnleggende skifte i hvordan beslutningsmyndighet utøves når intelligente, lærende systemer deltar i styring, arbeid og samfunnsfunksjoner. For virksomheter betyr det ikke bare etterlevelse av loven, men muligheten til å bygge nye, innovative løsninger med bruk av KI, der ansvar, tillit og verdiskaping er integrerte deler av beslutningskjeden. Dette vil påvirke dagens organisasjoner, og de som klarer å transformere sin organisasjon i takt med KI-satsninger vil stå sterkere rustet til å håndtere enhver risiko som følger med bruk av spesielt, høyrisiko KI-systemer.

Habberstads rammeverk gir et konkret og operasjonelt utgangspunkt. Kjernen er enkel: klar jobbarkitektur, tydelig ansvar, integrert beslutningslogikk og kontinuerlig innsikt og læring. Dette sikrer at styring og verdiskaping opptrer som én sammenhengende kjede, i stedet for å bli mer og mer pulverisert gjennom komplekse, tradisjonelle, hierarkiske strukturer og siloer.

En KI-motor samler og analyserer data fra operativ praksis.

Den synliggjør mønstre, avvik og forbedringsmuligheter, og gir ledelsen sanntidsinnsikt i menneske–KI-samspill i organisasjonen, samt risiko.

Resultatet er et styringsregime som kombinerer ansvar, læring og innovasjon. 

Hvorfor virker det? 

Habberstads tilnærming er ledelsesdrevet, ikke IT-drevet.

Den unngår innføring av fragmenterte KI-systemer som ikke er forankret i virksomhetens målstyring, eller som ikke sikrer menneskelig beslutning i kritiske prosesser som påvirker brukere og kunder. Rammeverket sikrer at KI blir et verktøy for verdiskaping og styring, ikke en risikofaktor som truer virksomhetens forretning og eksistens. Ved å bygge ansvar, struktur og kontinuerlig innsikt i organisasjonen, kan virksomheter både etterleve EU AI Act og oppnå konkurransefortrinn.

Ønsker dere komme i gang ?

EU AI Act krever mer enn policyer og dokumentasjon. Vi hjelper dere med å finne reelle gevinster som tas ut ved hjelp av operasjonell målstyring med KI – i tråd med lovens krav. Vi samarbeider også tett med Brækhus Advokater for juridisk støtte og kvalitetssikring.

Meld deg på Habberstad Arena 22.april og Silvija Seres foredrag - Fra Teknologi til Strategisk kjerne