Kunstig intelligens er på alles læber, og at følge med i udviklingen kan føles som at forsøge at springe på et japansk højhastighedstog i fuld fart. Mangler du også overblik over, hvordan du arbejder med AI? Så er du ikke alene. Heldigvis behøver det ikke være svært. Byg videre på dit eksisterende compliancearbejde og kom i mål med kravene i AI forordningen (AI Act).
AI forordningen er en europæisk lovgivning, der regulerer brugen af kunstig intelligens. EU’s AI-forordning er verdens første omfattende lovgivning om kunstig intelligens. Formålet med forordningen er at skabe tillid til AI-systemer med fokus på sikkerhed og respekt for grundlæggende rettigheder.
I august 2024 blev AI forordningen vedtaget af EU og er dermed en del af dansk lovgivning. Kravene i AI forordningen implementeres trinvist fra 2024-2027.
Den 2. februar 2025 træder følgende krav i kraft:
Disse regler skal være med til at sikre, at virksomheder og myndigheder ikke udvikler systemer, der udgør en trussel mod sikkerheden, borgernes rettigheder eller værdighed, og at medarbejdere i virksomheder og myndigheder er klædt ordentligt på til at anvende kunstig intelligens.
Ikke alle AI-systemer er ens, og derfor skal man også forholde sig til, hvilken type AI, der er tale om. AI forordningen arbejder med fire klassifikationer:
Dokumentér dine AI-systemer
Du kender det allerede fra databeskyttelses- og informationssikkerhedsarbejdet. Systemer og processer skal dokumenteres. Det samme gælder AI-systemer. Dette gøres nemt i Wired Relations, hvor du kan anvende labels, og dermed sætte et tag på AI-systemet. Du kan desuden linke til uddybende dokumenter.
Task management - årshjul
AI-systemer udvikler sig, og derfor er det en løbende opgave at styre risici og sikre compliance. I Wired Relations Task Manager kan du styre dine opgaver (også de tilbagevendende) og dermed dit årshjul.
AI politikker
Hos Wired Relations får du relevante skabeloner til de væsentligste AI politikker. Du kan desuden sende en politik for brug af kunstig intelligens ud til medarbejderne for at sikre, at de er klædt godt på. Her får man også en bekræftelse på, at politikken er læst.
Konsekvensanalysen i Wired Relations bygger på Datatilsynets generiske skabelon til konsekvensanalyse (DPIA). Der er få forskelle på Datatilsynets generiske skabelon og Datatilsynets skabelon for konsekvensanalyser til AI.
I Datatilsynets skabelon for konsekvensanalyse til AI skal vurderingen af lovlighed vurderes i forhold til forskellige faser (udvikling, test og drift), og der skal tages stilling til specifikke AI-trusler.
Begge dele kan kortlægges i den generiske konsekvensanalyse, som anvendes i Wired Relations. Her er det let at skabe overblik ved at vurdere de forskellige faser samlet. Samtidig er der også mulighed for at arbejde med specifikke AI-relaterede trusler.
ISO/IEC 42001 er en international standard, der specificerer krav til etablering, implementering, vedligeholdelse og løbende forbedring af et ledelsessystem for kunstig intelligens (AIMS) i organisationer. Den er udviklet til enheder, der leverer eller bruger AI-baserede produkter eller tjenester, hvilket sikrer ansvarlig udvikling og anvendelse af AI-systemer.
Den adresserer de unikke udfordringer, AI udgør, som for eksempel etiske hensyn, gennemsigtighed og kontinuerlig læring. Den fastlægger en struktureret måde, hvorpå organisationer kan styre risici og muligheder forbundet med AI, så der skabes balance mellem innovation og styring. Standarden udstikker best practice for arbejde med kunstig intelligens og er et stærkt udgangspunkt for AI compliance.
Ja, det kan man sagtens. På samme måde som med andre standarder, kan man dokumentere, hvordan man som organisation efterlever de forskellige krav.
Det er ikke et krav, at man arbejder med ISO42001 i forhold til efterlevelse af AI forordningen, men det er en mulighed.
Tilmeld dig vores månedlige nyhedsbrev Sustainable Compliance.