Mer målrettet sikkerhetsarbeid for KI

Senter for langsiktig politikk takker for muligheten til å gi innspill til SV og Venstres representantforslag. Den viktigste mangelen i forslagene mener vi er en mer målrettet politikk for å sikre en trygg KI-utvikling.

SV

SV foreslår flere tiltak for å redusere de mest alvorlige risikoene fra KI. Vi er positive til hensikten, men vil foreslå noen endringer:

Innføre moratorium i offentlig sektor. Problemet med risikable KI-modeller er reelt, men hvorvidt de utvikles eller ikke avhenger ikke av om norsk offentlig sektor bruker KI. Forslaget vil derimot svekke offentlig sektor sin kompetanse på KI, samt redusere mulighetene for bedre styring i offentlig sektor og bedre ressursutnyttelse. KI, anvendt rett, vil sikre mer treffsikre og rettferdige beslutninger. Vi mener det er mer hensiktsmessig å sikre god regulering av bruken av KI heller å forby KI som verktøy.

Konsesjonsordning for innsamling, bruk og lagring av både offentlige data og persondata for kommersielle aktører. Intensjonen bak forslaget er god. Vi bør sikre en bedre oversikt over bruk av KI i privat og offentlig sektor. Men en konsesjonsordning er unødig byråkratisk og vil hemme samfunnsnyttig bruk. Et mer egnet forslag er et KI-register (se nedenfor). Vi trenger mer offentlig datadeling, særlig innen helse, der KI kan bringe store gevinster dersom vi gir flere tilgang på de gode helsedata vi har i Norge. Vi trenger en offensiv politikk som kan sikre samfunnsnyttig bruk av data samtidig som personvern løses. En mulighet er å legge til rette for et marked for data, som sikrer enkeltpersoner kontroll over sine data og kompensasjon ved bruk.

Stortingsmelding om kunstig intelligens. Heller enn å kartlegge bruk trenger vi en stortingsmelding som beskriver hvordan vi skal forholde oss til teknologien. Vi trenger en lovproposisjon for å sikre en grunndig jobb med å tilpasse norsk regelverk utfordringene tilknyttet KI. For eksempel: Gjennom objektivt ansvar har vi allerede en mekanisme for å ansvarliggjøre utviklere for ulykker og misbruk, men det må avklares hvilke hendelser vi kan forvente at KI-modeller sikres mot, slik at objektivt ansvar blir lett å håndheve for rettsvesenet. En mer spesifikk ansvarsfordeling for verdikjeden til KI og KYC-krav for tilbydere burde vurderes.

Venstre

Vi stiller oss positive til Venstres forslag, men sikkerhetsperspektivet bør vektlegges ytterligere i form av konkrete tiltak. Om tiltakene:

Plan for forsterkning av forskning. Langsikt støtter styrking av forskning på kunstig intelligens. Imidlertid burde en stor andel av forskningsmidlene eksplisitt dedikeres til forskning på forklarbarhet og trygg kunstig intelligens, ikke bare konsekvenser og anvendelser.

Skalere opp antall studieplasser. Dette er viktig. KI kan med fordel også inkluderes mer i samfunns- og sikkerhetsrettede utdanninger.

Implementering av Artificial Intelligence Act samtidig som den trer i kraft i EU er et godt forslag. Det forutsetter imidlertid et grundig forhåndsarbeid.

Undersøke hvordan relevante sider av det norske regelverket skal tolkes og anvendes i lys av bruk av kunstig intelligens. Dette støtter vi. Se punkt om stortingsmelding.

Etablere et eget algoritmetilsyn. Vi trenger et algoritmetilsyn for å sikre at KI-systemer ikke bryter med norsk lov og folks grunnleggende politiske, sivile og økonomiske rettigheter. Et tilsyn vil gi tillit og kan sikre at algoritmer bidrar til mer treffsikre, rettferdige og transparente beslutninger. Et slikt organ bør inngå i et eksisterende kompetansemiljø. Datatilsynet, gitt at de får et bredere mandat enn de har i dag, kan være et slikt miljø.

Vårt perspektiv

I tillegg til store muligheter til å forbedre samfunnet medfører KI-utviklingen en rekke typer risiko.

Misbruksrisiko er risiko for at ondsinnede aktører bruker KI til å volde skade. Særlig bekymringsverdig er misbruksrisiko innen cybersikkerhet, biovåpen, manipulasjon og overvåkning. KI kan senke terskelen for å gjennomføre avanserte cyberangrep og å utvikle kjemiske eller biologiske våpen, og styrke stater og selskapers evne til å overvåke og manipulere enkeltpersoner og demokratiske prosesser.

Ulykkesrisiko er risiko for ulykker forårsaket av KI-systemer som ikke oppfører seg som ment. Utover vanskeligheten med å få KI til å oppføre seg som vi vil, øker dataavhengigheten, hastigheten, kopimuligheten og autonomien til KI-modeller sannsynligheten og omfanget av KI-ulykker. Bekymringen er at KI skal integreres i risikable systemer der vi ikke har råd til ulykker, som kritisk infrastruktur, autonome våpen og atomvåpensystemer.

Aggregeringsrisiko er en sekkebetegnelse for risiko for samfunnsproblemer forårsaket av utbredt bruk av K i samfunnet. Slike problemer oppstår særlig fra scenarioer der det som lønner seg for hver enkelt aktør ikke lønner seg for samfunnet som helhet. KI kan skape systematisk diskriminering av utsatte grupper, skape enorme økonomiske omstillingsutfordringer, utfordre demokrati og tillit, samt forårsake destabiliserende kappløpsdynamikk mellom stater og selskaper.

Alle de tre risikotypene vil skalere opp i takt med at KI blir kraftigere, særlig i kombinasjon med fortsatt rask utvikling. Utover revisjon av representantforslagene som beskrevet over anbefaler vi at Stortinget ber regjeringen om å:

Oppnevne en NOU som kartlegger sikkerhetsutfordringer tilknyttet KI og hvilke tiltak vi kan ta i bruk for å redusere risikoen.

Etablere en global ambassadør for KI og en avdeling på KI i UDs seksjon for global sikkerhet. Et konkret mål må være å utarbeide en klar posisjon på internasjonalt KI-sikkerhet innen FNs Summit for the Future i 2024.

Systematisere arbeidet med datadeling, særlig for helsedata. Bevissthet rundt risikoer må ikke stoppe oss fra å hente ut gevinster fra KI. Mange anvendelsesområder for KI har lav risiko og stort nyttepotensial. Digitaliseringsnivået i Norge gir oss tilgang på unikt verdifulle datasett, men det hjelper ikke om de er utilgjengelige for forskerne som kan bruke dem.

Etablere et KI-register for risikable systemer og KI-ulykker. Et register for bruk av KI-systemer innenfor sensitive områder som helse, kritisk infrastruktur og finans vil uansett bli et krav fra EU og bør implementeres så fort som mulig. Vi bør også innføre et register for ulykker som kan skyldes KI. Ved alvorlige ulykker bør det være praksis at disse etterforskes av offentlige myndigheter, eksempelvis etter modell fra Havarikommisjonen.