Hovedmomenter
På tirsdag fortalte utenriksminister Espen Barth Eide, i sin halvårlige redegjørelse for Stortinget om viktige EU- og EØS-saker, at EUs kunstig intelligens-forordning (AI Act) «ser ut til å bli et godt regelverk». Sannheten er at lobbypress fra tyske og franske selskaper truer en essensiell del av forordningen, nemlig reguleringen av de kraftigste KI-systemene.
Såkalte grunnmodeller (foundation models) er modeller som GPT-4 (som inngår i ChatGPT), som er trent på enorme mengder tekst og bilder. Med gode språkevner kan de raskt tilpasses nye oppgaver. Derfor brukes de av mange små selskaper til å forbedre produktene deres. Forslag til AI Act inkluderte regulering av slike modeller. Det ville gjort at store teknologiselskaper, som OpenAI/Microsoft og Google Deepmind, ville måttet sikre at modellene de tilbyr, tilfredsstiller krav til sikkerhet og dokumentasjon.
Etter intenst lobbypress fra KI-selskaper som Mistral og Aleph Alpha har Frankrike og Tyskland snudd. De vil nå unnta grunnmodellene fra regulering.
Undergraver hele poenget
Å gi fritak for de største modellene undergraver hele poenget med forordningen, nemlig å regulere risikable KI-modeller uten å bremse innovasjon og utvikling på områder hvor det er mindre risiko.
Det øker risikoene tilknyttet de kraftigste modellene fordi grunnmodeller er vanskelige å sikre mot dårlig oppførsel og kan brukes til onde formål. Å sikre disse modellene må være produsentenes og ikke brukernes ansvar.
Det favoriserer også de få mektigste selskapene på bekostning av innovasjon og utvikling blant mindre aktører. Det fratar de store selskapene ansvaret og legger byrden på de mange små selskapene som ikke vil ha kompetansen eller muligheten til å tilstrekkelig sikre sine egne systemer.
Om ikke Tyskland og Frankrike snur, kan forordningen bli et uansvarlig regelverk som favoriserer mektige selskaper på bekostning av sikkerheten til folk flest. Skal regelverket være i tråd med våre interesser, må norske myndigheter og andre land på banen.