Main moments
! 1
! 2
! 3
! 4
Gratulerer så mye til Karianne Tung, vår ferske digitaliseringsminister. Med oppnevnelsen viser regjeringen at den forstår behovet for en overordnet styring av den rivende utviklingen innenfor kunstig intelligens (KI), som Inga Strümke og jeg har etterspurt i Aftenposten.
Det er nok av problemer og utfordringer som Tung må ta fatt i. Vi i Senter for langsiktig politikk foreslår derfor ti konkrete tiltak som ikke bare reduserer risikoen ved bruk av KI, men også gir oss muligheten til å utnytte teknologien.
- Stortingsmelding
Norge må så fort som mulig utvikle et transparent og forutsigbart regelverk som klargjør ansvar og legger til rette for trygg og etisk forsvarlig bruk av KI i offentlig og privat sektor. Det fordrer en stortingsmelding hvor regjeringen legger frem sin overordnede KI-strategi, hvor de gjør klart hvor de vil hen med teknologien og hvordan de vil legge til rette for samfunnsnyttig bruk av KI. Vi kan ikke bare vente på EU. - Gjør Digdir til en KI-hub
Ambisjonen for Digitaliseringsdirektoratet om å være verdensledende på digitalisering bør utvides til også å inkludere bruk av kunstig intelligens. Direktoratet bør fungere som en kompetansebank for kunstig intelligens i offentlig sektor, og målet må være å heve kvaliteten og brukervennligheten av offentlige tjenester. - Styrke arbeidstakerne
KI kan både være en gave og en trussel for arbeidstakerne. Myndighetene bør følge utviklingen tett og lage en plan for å sikre at KI styrker arbeidernes rettigheter og velvære i ulike scenarioer. - KI-register
Fornuftig regulering fordrer oversikt og gjennomsiktighet. Et register for bruk av KI-systemer innenfor sensitive områder som helse, kritisk infrastruktur og finans vil uansett bli et krav fra EU og bør iverksettes så fort som mulig. Vi bør også innføre et register for ulykker som kan skyldes KI. Ved alvorlige ulykker bør et organ à la Havarikommisjonen granske ulykken. - KI-registrene vil ikke legge lokk på innovasjon, men snarere sikre tilstrekkelig tillit til at KI brukes på forsvarlig måte.
- Algoritmetilsyn
Registrering er imidlertid ikke nok. Vi trenger et algoritmetilsyn for å sikre at KI-systemer ikke bryter med norsk lov og folks grunnleggende politiske, sivile og økonomiske rettigheter. Et tilsyn vil gi tillit og kan sikre at algoritmer bidrar til mer treffsikre, rettferdige og transparente beslutninger. - Et slikt organ bør inngå i et eksisterende kompetansemiljø. Datatilsynet, gitt at de får et bredere mandat enn de har i dag, kan være et slikt miljø.
- Datadeling
For at KI-systemer skal bli så gode som vi ønsker må de ha tilgang på en stor mengde data. For at ikke systemene skal gi urettferdige utslag for noen grupper må de trenes på data fra og om hele befolkningen, spesielt minoritetsgrupper. Det fordrer imidlertid at mer data samles inn og deles. - Myndighetene har allerede gjort forsøk på å legge til rette for datadeling, men mer må til. Det er fortsatt en rekke begrensninger på bruk av helsedata som må bli mindre firkantede. Vi må forvalte data mer som en fellesressurs og kreve at selskaper som samler data om folk må dele informasjonen med andre. Og skal vi trene store språkmodeller på norske data trenger vi en ny politikk for å anerkjenne folks åndsverk og kompensere dataprodusenter for deres arbeid uten at det stopper all utvikling.
- Kjenn dine kunder
Åpenhet, deling og ansvarsavklaring er nødvendige faktorer for å sikre forsvarlig og tillitsvekkende implementering av KI. Men det er ikke tilstrekkelig. KI kan gi store gevinster, men det kommer også med risikoutfordringer. - Kraftige KI-systemer kan styrke kapasiteten til ondsinnede aktører og dermed gjøre oss mer sårbare for terrorangrep. Vi bør vurdere muligheten for å kreve at selskaper som tilbyr de kraftigste KI-systemene kjenner sine kunder, lignende KYC-krav innen finans.
- Digitale sertifiseringssystemer
Deepfakes kan brukes til hevnporno og for injurierende formål, men kan også undergrave den offentlige samtalen. Hvis vi ikke lenger kan stole på at vi vet hvem som sier hva i offentligheten, undergraves tilliten demokratiet står på. Vi trenger flere KI-robuste sertifiseringssystemer som hjelper oss å skille mellom falskt og ekte innhold.> - Sikkerhets-NOU
Foruten risikoene knyttet til ondsinnende aktører og deepfakes er det også en fare for at KI-systemer vil kunne bidra til katastrofale ulykker. En fare er at KI skal integreres i atomvåpensystemer. En annen er at systemene blir så kraftige og autonome at de kan utgjøre en eksistensiell trussel mot menneskeheten. - Vi trenger en offentlig utredning for å få en oversikt over dette trusselbildet og hvilke tiltak vi kan ta i bruk for å redusere risikoen.
- Internasjonal deltakelse
Mye av arbeidet for å sikre trygg KI må skje internasjonalt. Teknologien kommer fra store selskaper i andre land og det er en fare for at et kappløp mellom USA og Kina eller mellom de fremste KI-selskapene vil lede til at sikkerhet ofres for å vinne kappløpet. - Et slikt kappløp kan bare stanses med internasjonalt samarbeid og Norge må ta del i dette samarbeidet. Tung bør derfor samarbeide med UD om å etablere en egen avdeling på KI i seksjon for global sikkerhet.
Regjeringen bør også vurdere hvordan Norge kan forhindre at kraftig KI brukes til illegitim krigføring og terror. En mulighet er å innføre eksportkontroll på kraftige KI-systemer som kan brukes til slike formål.
Det er tid for å sette premissene for hvordan teknologien skal påvirke samfunnet. Vi håper vår nye digitaliseringsminister griper muligheten.
Download