Bakgrunn
Digitale plattformer
og «tingenes internett» bygger i stor grad på kunstig intelligens
og er nå både kjernetjenester i offentlig sektor og samfunnskritisk
infrastruktur verden over. Man lever nå store deler av sitt liv ved
hjelp av digitale systemer. Da er det fellesskapet som må legge
premissene for den digitale utviklingen. Gjennom automatiserte prosesser
med alt fra for eksempel robotstøvsugere på sykehjem til programvare for
ansettelser i Nav og trafikkplanlegging i kommunen blir data og
algoritmer sentrale i livene våre.
Med kunstig intelligens
(KI) automatiseres stadig nye prosesser. Over tid har man sett kunstig
intelligens bli brukt til for eksempel diagnostisering av flere
sykdommer og til avansert trafikkplanlegging. I regjeringens Nasjonal
strategi for kunstig intelligens (2020) defineres kunstig intelligens
slik:
«Kunstig intelligente
systemer utfører handlinger, fysisk eller digitalt, basert på tolkning
og behandling av strukturerte eller ustrukturerte data, i den hensikt
å oppnå et gitt mål. Enkelte KI-systemer kan også tilpasse seg gjennom
å analysere og ta hensyn til hvordan tidligere handlinger har påvirket
omgivelsene.»
Kunstig intelligens
lages ved at data mates inn i en programvare og trenes på enten
en enorm databank eller eget og andre mønstre – såkalt maskinlæring.
Det vi får, er avanserte sammenligninger omgjort til matematiske
beregninger, slik at datamaskinen kan gjenkjenne ord og sammenhenger.
Samtidig selges kunnskapen en får fra maskinlæringen, til andre
selskaper eller brukes av selskapet som laget den første programvaren,
til å utvikle nye.
Digitaliseringen
og utviklingen av KI har i lang tid skjedd uten tilstrekkelig regulering
fra myndighetenes hold. Slik får enorme teknologiselskaper kunnskapsmonopol
blant annet over infrastruktur og i offentlig sektor. Det flytter
makten fra det offentlige til utenlandske selskaper og gjør det
vanskelig for mindre næringsvirksomheter å konkurrere, da de ikke
har de samme databankene og treningssettene som store selskaper som
Google.
Utbredt bruk av YouTube
i skolen mater en forretningsmodell basert på å holde individer
på plattformen så lenge som mulig for å skape mest mulig data. Det
som skaper mest engasjement, er ytringer som fører til sinne, da
det gir flere visninger av reklamen som selskapet tjener penger
på. Sosiale medier gir gjennom sin forretningsmodell en turboeffekt
på en rekke samfunnsproblemer som polarisering og spiseforstyrrelser.
Det offentlige, og i dette eksemplet skolen, blir dermed aktører
som tilrettelegger for polarisering i samfunnet og at kunnskapen
konsentreres hos noen få med økonomiske interesser. Skoleeksemplet
kan dras videre: Personvernkommisjonen viste høsten 2022 til at
lærere ofte tar i bruk gratisapper i undervisningen, uten at det
er vurdert hva slags data som samles inn, og hvordan disse dataene
brukes videre.
Den senere tid har
det skjedd et taktskifte i utviklingen av KI, med for eksempel ChatGPT
og deepfake. Det har utviklet seg et «våpenkappløp» mellom de store
teknologigigantene, hvor ingen har interesse av å bremse utviklingen
i frykt for å tape konkurransen. De som jobber i våpenkappløpet,
er selv redde for konsekvensene. I en undersøkelse oppga over 50
prosent av de som selv forsker og utvikler kunstig intelligens,
at det er over 10 prosent sjanse for at teknologien kan utrydde menneskeheten.
Selv om noen teknologiaktører tar til orde for å midlertidig stanse
treningen av noen typer KI, er det ofte for at de selv skal kunne
utvikle den beste KI-en i vakuumet som oppstår. Videre foreslås
det i flere av de internasjonale tiltakene for regulering av KI
fra G7 og EU en risikobasert tilnærming når det kommer til kunstig
intelligens, stikk i strid med den norske modellen, som tar utgangspunkt
i føre-var-prinsippet.
Utviklingen av kunstig
intelligens skjer i dag i aller høyeste grad av og for kommersielle
aktører. ChatGPT kontrolleres i stor grad av Microsoft gjennom OpenAI. De
har en enorm databank som de kan trene KI på, samt enorme budsjetter.
Dermed brukes ChatGPT til å videreutvikle både den aktuelle og andre
typer kunstig intelligens. Det gir de store selskapene enda mer
markedsmakt som penetrerer skole og det offentlige. Kommersiell
KI bør ikke reguleres i etterkant – det må være opp til aktørene
å vise at deres KI er etisk, robust og pålitelig før den ender på
markedet.
Trenden i KI er stadig
større og mer komplekse modeller. Da må man sikre at de er rettferdige,
og at reguleringen får bukt med de negative konsekvensene av KI
og gir grobunn for de positive. Innen 2026 kan alt innhold på internett
være 90 prosent syntetisk – altså skapt av KI – sier Europol. Det
betyr at offentligheten fylles opp av kunstig intelligens.
Det trengs både internasjonal
og nasjonal politikk for å regulere KI. De fleste selskapene er
i USA, som gir landet et stort ansvar. Norge må bruke diplomatiske
kanaler for å jobbe for at USA og resten av verden innfører reguleringer.
Likevel er data den sentrale ressursen i KI, og Norge har lang tradisjon
for demokratisk ressursforvaltning, som tar utgangspunkt i at fellesskapet
skal ha kontroll over de felles ressursene.
Utviklingen av KI
er og har vært dyr og energikrevende. KI bruker store mengder ferskvann,
mye kraft og må ha svært kraftig maskinvare. Det å prioritere både kraft
og areal er helt nødvendig for å sikre at man har strøm nok til
alle, og at Norge når sine internasjonale forpliktelser, blant annet
i FNs naturavtale.
For å sikre en demokratisk
og positiv utvikling av KI er en nødt til å sikre et regelverk som
svarer på blant annet: Hva skal kunstig intelligens brukes til?
Hvem sin kunstige intelligens skal brukes hvor? Hva og hvordan skal
man prioritere innenfor kunstig intelligens? Hvem skal få eie dataene
en mater kunstig intelligens med? Hvordan ser rettferdighet ut i
en kodet verden? Hvem har ansvaret for at algoritmene ikke er rasistiske
og sexistiske? Dette er politiske spørsmål som krever politisk regulering.