AI forordningen

Klar til AI Act: Byg ovenpå dit nuværende GRC arbejde

Lige nu er to ting fra AI forordningen trådt i kraft:

  • Organisationer må ikke anvende forbudte AI-systemer.
  • Medarbejdere skal trænes i AI-færdigheder.


Ved at klassificere jeres systemer og bruge vores AI-politikskabelon er I fuldt understøttet i forhold til gældende lovgivning. 

AI Forordningen skal sikre, at virksomheder og organisationer i EU bruger AI på en ansvarlig måde. I første omgang handler det om, at du skal få styr på, hvor I bruger AI, og hvilken type AI I benytter.

Det giver overblik og mulighed for at styre de risici, som AI medfører. Samtidig er det lige nu det primære compliance-krav.

Wired Relations dashboard showing all systems with filter options, system status, labels, owner, and responsible person.

Mange virksomheder bygger allerede robuste GRC-programmer med Wired Relations

udfordringen

Systemer og lovgivning der udvikler sig

Der er to grundlæggende udfordringer med AI compliance:

  • Systemerne udvikler sig med rygende hast - også efter at man har implementeret dem i sit systemlandskab og
  • Lovgivningen er samtidig under konstant forandring


Derfor sidder mange lige nu og skal balancere, så de overholder lovgivningen, men ikke overimplementerer og dermed bruger tid og ressourcer, som kunne være brugt et andet sted.

Det er også derfor, vi opfordrer til, at man søger at skabe et overblik over og klassificerer sin AI, så man er klar, efterhånden som reglerne træder i kraft og bliver fastere.

Typiske udfordringer lige nu

Jeg har ingen ide om, hvor vi bruger AI?

Hvordan får jeg et samlet overblik over, hvilke typer AI vi benytter?

Hvordan sikrer jeg mig, at vi er klar og har det nødvendige overblik, når reglerne træder i kraft?

Hvilke risici påtager vi os med AI?

Sådan dokumenterer du AI compliance med Wired Relations

Skab overblik over jeres systemer

Start med at skabe en komplet database over jeres IT-systemer og leverandører. Mange har allerede skabt dette overblik i forbindelse med arbejdet med databeskyttelse og informationssikkerhed.

Wired Relations dashboard displaying all registered systems with filtering options.

Identificer, hvor der anvendes AI i organisationen

Når I har et godt overblik over jeres systemlandskab, er det næste skridt at skabe et overblik over, hvilke systemer, der indeholder AI. Dette markeres i Wired Relations på det enkelte system, så man nedefra opbygger et godt overblik.

Illustration of a magnifying glass and a warning symbol representing identification of AI usage within the organisation.

Klassifikation af AI-systemet

Samtidig forholder du dig til, hvilken type AI, der er tale om. I AI-forordningen tales om:

  • Forbudte AI systemer 
  • Højrisiko
  • Begrænset risiko 
  • Minimal risiko

Du kan dog vælge andre klassifikationer, hvis du skal forholde dig til andre love, regler eller rammeværk omkring AI.

Klassificeringen er afgørende for, hvilke krav man senere skal leve op til, og hvordan man i øvrigt tilrettelægger arbejdet.

A card in Wired Relations showing the type of AI system in use.

Klæd medarbejdere på til at arbejde med AI i organisationen

I Wired Relations har du adgang til relevante skabeloner til politikker vedrørende brug af AI i organisationen, og det er nemt at sende politikker ud til dine kollegaer og sikre, at de har læst dem.

Screenshot of a task in Wired Relations titled 'Review AI Policy', assigned to team members with a due date.

Dokumentér dine AI-systemer

Du kender det allerede fra GDPR og informationssikkerhedsarbejdet. Systemer og processer skal dokumenteres. Det samme gælder AI-systemer, og i Wired Relations kan du foretage den dokumentation - og enkelt linke til uddybende dokumenter. Så kan du hele tiden dokumentere dine AI systemer over for samarbejdspartnere og myndigheder.

System overview in Wired Relations with AI-marked systems clearly identified.

AI politikker

Hos Wired Relations får du relevante skabeloner til de væsentligste AI politikker. Du kan desuden sende en politik for brug af kunstig intelligens ud til medarbejderne for at sikre, at de er klædt godt på. Her får man også en bekræftelse på, at politikken er læst.

white_check_mark
Illustration of balanced scale and checkmark symbolising compliance with AI policies

Task management – life cycle management

AI systemer udvikler sig, og derfor er det en løbende opgave at styre risiko og sikre compliance. I Wired Relations Task Manager kan du styre dine opgaver (også de tilbagevendende) og dermed dit årshjul.

Table visualising annual compliance tasks distributed across the calendar year.

Når du skaber overblik over jeres brug af AI, er det ikke blot et lovgivningsspørgsmål. Det er også med til at skabe reel værdi for forretningen:

  • Risikostyring: AI medfører risiko, og du kan kun styre ricisi, du kender. Overblikket er første skridt.
  • Konkurrencefordel: Et godt overblik over din AI giver mulighed for at bruge den bedre og mere effektivt.
  • Effektive compliance processer: Brug dine ressourcer rigtigt i compliance-funktionen ved at have fokus på det, der giver mest værdi.
  • Forbedret cyber-sikkerhed: AI kan skabe sikkerhedshuller. Dem kan du lukke, når du har et overblik.

Fordele ved overblik over AI

Ofte stillede spørgsmål om AI forordningen og Wired Relations

Hvad er AI-forordningen?

AI-forordningen skal regulere brugen af kunstig intelligens inden for EU. Formålet med forordningen er at skabe tillid til AI-systemer med fokus på sikkerhed og respekt for grundlæggende rettigheder.

Hvad er trådt i kraft nu?

De første regler i EU’s AI-forordning skal overholdes fra den 2. februar 2025 - og de første regler er:

  • Organisationer må ikke anvende forbudte AI-systemer
  • Medarbejdere skal trænes i AI-færdigheder

Reglerne skal være med til at sikre, at virksomheder og myndigheder ikke udvikler systemer, der udgør en trussel mod sikkerheden, borgernes rettigheder eller værdighed, og at medarbejdere i virksomheder og myndigheder er klædt ordentligt på til at anvende kunstig intelligens.

Hvad træder i kraft senere?
  • EU-Kommissionen vil føre tilsyn med store generative AI-modeller, fx ChatGPT, Claude og Gemini (gældende fra den 2. august 2025)
  • Ved begrænset risiko skal AI-systemerne overholde specifikke gennemsigtighedskrav, fx transparens om AI-genereret indhold (gældende fra den 2. august 2026)
  • Ved høj risiko er AI-systemerne underlagt særlige krav til detaljeret dokumentation, risikostyring, overvågning og ansvarlighed (gældende fra den 2. august 2026 og 2. august 2027)

Vi holder os løbende orienteret omkring de kommende krav (som endnu ikke er fastlagt) og vurderer, hvordan disse kan håndteres i Wired Relations bedst muligt.

Hvad er AI-klassifikation?

‍Ikke alle AI-systemer er ens, og derfor skal man også forholde sig til, hvilken type AI, der er tale om. AI-forordningen arbejder med fire klassifikationer:

  • Forbudte AI-systemer (fx. AI, der anvendes til masseovervågning)
  • Højrisiko AI-systemer (fx. AI, der anvendes i kritisk infrastruktur, uddannelse, ansættelse og væsentlige private og offentlige tjenester)
  • Begrænset risiko AI-systemer (**fx. chatbots, AI-genereret tekst, lyd- og videoindhold)
  • Minimal eller ingen risiko AI-systemer (fx. anbefalingssystemer i streamingplatforme, autokorrektur og navigation)
Hvad skal vi gøre lige nu, hvor AI forordningen ikke er trådt fuldt ud i kraft?

Lige nu gælder det om at:

  • at tage stilling til om et system anvender AI og i hvilket omfang
  • tilbyde en medarbejderpolitik for brug af AI - begge kan man i Wired Relations.

Vi følger udviklingen af AI forordningen nøje og tilpasser produktet til det nye der kommer.