1.3.3 De etiske prinsippene for ansvarlig bruk av kunstig intelligens ivaretas i ulik grad. Kontrollmekanismer som sikrer ansvarlig bruk av kunstig intelligens, må være på plass
Kommunal- og forvaltningskomiteen har pekt på
at det er særlig viktig at myndighetene har nødvendig kontroll på
og regulerer bruken av kunstig intelligens slik at personvern ivaretas.
Grunnlaget for dette er en ansvarlig og pålitelig utvikling og bruk
av kunstig intelligens. Regjeringens nasjonale strategi for kunstig
intelligens legger til grunn at kunstig intelligens i Norge skal
bygge på de etiske prinsippene utarbeidet av EU-kommisjonens ekspertgruppe
for kunstig intelligens. Ansvarlig bruk av kunstig intelligens er
dermed forankret i krav til personvern, likebehandling, sikkerhet
og teknisk robusthet, transparens og en ansvarlig styring. Dette
innebærer blant annet å overholde personvernregler, å overvåke KI-systemet
for å avdekke eventuelle feil eller skjevheter og å kunne forklare
hvordan algoritmene fungerer og tar beslutninger. Ved å følge opp
de etiske prinsippene og vurdere tiltak kan offentlig sektor utvikle
og bruke kunstig intelligens på en måte som gagner samfunnet, respekterer
individets rettigheter og oppfyller etiske standarder.
Mye av effektiviseringspotensialet med KI er
basert på automatisering av arbeidsprosesser. Der kunstig intelligens
brukes i forbindelse med automatisert saksbehandling, kan sentrale
rettssikkerhetsprinsipper bli utfordret, og det er avgjørende med
både tilstrekkelig kunnskap om forvaltningsrett i utvikling av systemene, og
med teknologisk kompetanse i kontroll av saksbehandlingen og vedtak.
KI-systemer i kontakt med borgere, for eksempel basert på språkmodeller
som gir tilpasset veiledning om saksbehandling, krever kompetanse
i befolkningen, og avklart ansvar ved feil på grunn av misforståelser
i kommunikasjonen med KI-systemet. KI-systemer som lærer av data
kan videreføre og forsterke historiske skjevheter, eller endre ytelse
eller praksis over tid. Videre kan det med avanserte maskinlæringsmodeller
være utfordrende å få en god forklaring på hvorfor systemet handlet
eller konkluderte slik det gjorde. Dermed kan det være vanskelig
å sikre åpenhet og forklaringsevne og dermed en etterprøvbar saksbehandling,
for å sikre klageretten.
Viktigheten av kontroll av KI-systemenes resultater kommer
for eksempel frem av EUs KI-forordning, som krever at bruk av høyrisiko
KI-systemer er tilrettelagt for at mennesker effektivt kan overvåke
systemet.
Undersøkelsen viser varierende modenhetsnivå
i hvordan virksomhetene ivaretar de etiske prinsippene som utgjør
ansvarlig bruk av kunstig intelligens. Dette gjelder både virksomhetenes
rammeverk for å sikre ansvarlig utvikling og bruk av kunstig intelligens
og i det praktiske arbeidet med å utvikle og bruke KI-modeller.
En viktig del av å regulere utviklingen og bruken
av kunstig intelligens er at virksomhetene etablerer rammeverk med
retningslinjer og rutiner for å sikre ansvarlig bruk av kunstig
intelligens. Dokumentasjon av beslutninger, avveininger og resultater
i utviklingsprosessen og ved bruk er en viktig del av ansvarlig
bruk av kunstig intelligens. Dette bidrar til å skape tillit og
sikre at KI-systemene opererer innenfor de etiske rammene.
Undersøkelsen viser at virksomhetenes rammeverk for
sikring av ansvarlig bruk av kunstig intelligens ivaretar de etiske
prinsippene i ulik grad. Dette kommer blant annet fram gjennom svarene
i spørreundersøkelsen Riksrevisjonen sendte til kontaktpersoner
som er fagansvarlig for KI-systemer i statlige virksomheter. Riksrevisjonen
spurte blant annet om hvorvidt det på et overordnet nivå ble brukt
skriftlige retningslinjer og lignende i utviklingen av KI-systemer.
Undersøkelsen viser at styringsdokumentene som brukes,
i større grad handler om krav til sikkerhet, robusthet og personvern,
og i mindre grad handler om krav til likebehandling, forklarbarhet
og åpenhet. Over 60 prosent oppga i spørreundersøkelsen at de har
brukt styringsdokumenter for databehandling og innebygd personvern
ved utvikling av kunstig intelligens. Under halvparten har brukt
styringsdokumenter som ivaretar krav til blant annet likebehandling
som testing for skjevheter i resultater av KI-systemer som benytter
persondata.
Flertallet av virksomhetene benytter standarder
for dokumentasjon av KI-systemer. Det varierer i hvilken grad innholdet
i standardene for dokumentasjon dekker hensyn til de etiske prinsippene.
For flertallet av virksomhetene som har standarder for dokumentasjon, dekker
disse datakilder og behandling av data, mens for under halvparten
dekker de forklaring av KI-systemets resultater. Riksrevisjonen
har gjennomført caseundersøkelser av fire utvalgte KI-prosjekter.
Gjennomgangen av disse casene viser tilsvarende svakheter i dokumentasjonen
av KI-systemene. For eksempel kommer det ikke klart frem i dokumentasjonen
hvilke veivalg som er tatt ved utvikling av KI-modellen, og hvorfor
en KI-modell er valgt fremfor andre. I denne sammenhengen etterspør
et av KI-prosjektene fra caseundersøkelsen felles maler som kan
brukes i KI-utvikling, blant annet basert på risiko ved KI, inkludert
det man ikke må gjøre eller dokumentere. Prosjektet peker på at
dette kunne effektivisere arbeidet med KI i virksomhetene betydelig
og åpne for mer innovasjon med KI i små og mellomstore virksomheter.
Det er en rekke risikoer og problemstillinger
som særlig gjelder utvikling og bruk av kunstig intelligens og ivaretakelse
av de etiske prinsippene. Dette handler for eksempel om hvordan
personopplysninger behandles, likebehandling, evne til å forklare
hvorfor KI-systemet handlet eller konkluderte slik det gjorde, og
algoritmens pålitelighet over tid. Undersøkelsen av virksomheters
retningslinjer for risikovurderinger, som Riksrevisjonen har innhentet
fra virksomheter med avanserte KI-systemer, viser at disse er generelt
utformet og i ulik grad dekker risikoene forbundet med ansvarlig
bruk av kunstig intelligens. Blant annet omfatter retningslinjene
hovedsakelig den generelle risikoen ved sikkerhet og beredskap av
IT-utstyr, og i ulik grad de særskilte risikoene som er forbundet
med automatisering og læring fra data i KI-systemer. Systematisk
manipulering av inndata, utilsiktet forskyving av treffsikkerhet
over tid og skjevheter som kan gi forskjellsbehandling, er i liten grad
dekket i disse retningslinjene. Det varierer dermed om retningslinjene
gjør virksomhetene i stand til å avdekke særskilte risikoer forbundet
med de etiske prinsippene for ansvarlig bruk av kunstig intelligens.
At de etiske prinsippene ivaretas i ulik grad,
går også frem av hvordan det arbeides med kunstig intelligens i virksomhetene.
Flertallet av virksomhetene svarte i Riksrevisjonens spørreundersøkelse
ja på påstander om at de arbeider med sikkerhet og robusthet, mens
en lavere andel svarte ja på påstander om åpenhet og likebehandling.
Det er for eksempel flere som svarer ja på at de tester for svakheter
ved cyberangrep, enn som svarer ja på at KI-systemet begrunner sine
beslutninger eller resultater.
For å undersøke nærmere i hvilken grad kravene
til de etiske prinsippene blir fulgt opp og ivaretatt i styringen
av KI-systemene, gjennomførte Riksrevisjonen en caseundersøkelse
av fire KI-systemer. De fire systemene som ble valgt ut, har ulike
formål og opererer under ulike rammebetingelser. De fire utvalgte
KI-systemene i undersøkelsen brukes som beslutningsstøtte i saksbehandling
eller diagnostikk. Tre av KI-systemene er utviklet av virksomheten
selv, mens ett er anskaffet fra en leverandør. Undersøkelsen av
KI-systemene viser at føringene om ansvarlig bruk av KI ivaretas
i varierende grad.
De utvalgte KI-prosjektene har gjennomført flest aktiviteter
for å sikre sikkerhet, robusthet og personvern og færre aktiviteter
for å sikre likebehandling, forklarbarhet og åpenhet.
To av KI-systemene, som virksomhetene selv har
utviklet, behandler og bruker personopplysninger og følger personvernreglene.
For eksempel vurderer de hvilke opplysninger som kan brukes i tråd
med personvernprinsippene. Arbeidet med personvern i KI-systemer oppleves
som tid- og ressurskrevende. Alle de fire KI-systemene gir informasjon
internt om funksjon, ytelse og kvalitet og deler informasjon om
at KI brukes i virksomheten med eksterne. Imidlertid varierer det
hvorvidt KI-systemenes beslutninger og resultater kan forklares.
Likebehandling vurderes overordnet i utviklingen av de fire undersøkte
KI-systemene. Det er i liten grad gjennomført tester for skjevheter
i KI-systemets inndata eller resultater, som forebygging av usaklig
forskjellsbehandling. Det er ikke gjennomført noen analyse av hvorvidt
KI-systemene fungerer like godt for ulike persongruppe
KI-prosjektene legger til grunn at likebehandling ivaretas
ved at alle er gjenstand for de samme beregningene i KI-systemet,
og gjennom at en menneskelig beslutningstaker alltid er involvert.
Risikoen for diskriminering er imidlertid også til stede når KI-systemer
er brukt som beslutningsstøtte, ikke bare i autonome systemer.
Riksrevisjonens vurdering er at virksomhetene
som utvikler og bruker kunstig intelligens, kun delvis har etablert
helhetlige rammeverk for ansvarlig bruk av kunstig intelligens.
Det varierer hvor langt virksomhetene har kommet i arbeidet med
rammeverk som ivaretar ansvarlig KI. De etiske prinsippene blir
også i praksis ivaretatt i ulik grad når kunstig intelligens utvikles
og brukes. Manglene ved virksomhetenes rammeverk og ved hvordan
de utvikler og bruker kunstig intelligens, kan etter Riksrevisjonens
vurdering tyde på at det ikke arbeides tilstrekkelig systematisk
med prinsipper for likebehandling, forklarbarhet og åpenhet. Videre
kan de påviste manglene i virksomhetenes rammeverk føre til at særskilte
risikoer forbundet med utvikling og bruk av kunstig intelligens
ikke fanges opp eller vurderes. Virksomhetene opplever samtidig
at problemstillinger med å ivareta ansvarlig bruk av kunstig intelligens
kan være barrierer for bruk og utvikling av kunstig intelligens.
Etter Riksrevisjonens vurdering er det mangel på kunnskap og støtte
for at statlige virksomheter bedre skal kunne ivareta likebehandling,
åpenhet og forklarbarhet i arbeidet med kunstig intelligens. Denne
mangelen kan gi risiko for at de etiske prinsippene for kunstig
intelligens ikke etterleves.