Kronikk

Fordumming av debatten om KI-trusler

Aksel Braanen Sterri
Eirik Mofoss
Først publisert i:
Dagens Næringsliv

Vi trenger mer ydmykhet fra ledende stemmer.

Last ned

KI-generert illustrasjon fra Midjourney

Hovedmomenter

1

2

3

4

Innhold

Kan vi få superintelligente KI-systemer innen 2030? Det hevder sjefen i OpenAI, Sam Altman. I en kronikk i DN 4. november, forsøker Inga Strümke og Anders Løland å avfeie påstanden som farlig hype.

Argumentasjonen deres er at toppledere i KI-industrien med vilje blåser opp muligheten for at vi skal få en superintelligent KI, såkalt AGI, som enten kan redde eller ødelegge menneskeheten. Slik distraherer de oss bevisst fra viktigere og pressende problemer i dag, slik som fattigdom, økt overvåkning og manipulasjon.

At Altman har lyst til å hype sitt produkt, er lett å forstå. Men vi bør ikke begå feilslutningen å tro at bare fordi Altman tjener på å si noe, så må det han sier være galt.

Selv om en skulle mistro Altman, er det vanskelig å bortforklare at ledende forskere som Stuart Russell og Geoffrey Hinton også advarer om eksistensielle trusler fra AGI. Hinton, som nylig vant nobelprisen i fysikk, sa til og med opp sin svært lukrative og godt betalte stilling i Google for å stå fritt til å advare om disse truslene.

Strümke og Løland er også skyldige i å sette opp en falsk motsetning mellom å adressere nåværende og fremtidige problemer. Å ignorere AGI-risiko fordi vi har presserende problemer nå, er som å droppe investeringer i pandemiberedskap fordi folk trenger hofteoperasjoner.

Å bruke knappe ressurser på å bekjempe farer som kanskje ikke vil inntreffe, men har katastrofale konsekvenser hvis de inntreffer, er ikke populært. Men å investere i forebygging og forhindring av problemer er billigere enn å reparere etterpå.

Strümke og Løland har imidlertid en mer substansiell kritikk av ideen om superintelligens. De mener vi ikke engang har en klar definisjon av intelligens. Uten det vet vi ikke om «intelligens er en størrelse som kan maksimeres», og enda mindre om vi vil kunne lage superintelligente systemer.

Men denne filosofiske innvendingen treffer ikke. KI er allerede superintelligent innenfor snevre områder, som sjakk og Go, i den betydning at de konsistente slår verdens beste mennesker. De store språkmodellene viser til og med gnister av generell intelligens, i betydningen at de leverer kompetente resultater på en hel rekke områder. Og tross at vi ikke vet om intelligens «kan maksimeres», vet vi at GPT-4 er mye smartere enn GPT-2.

Vi vet ikke om dagens KI-paradigme vil gi oss superintelligente systemer, men gitt de siste års enorme utvikling og KI-ekspertenes klare dom om at vi kommer til å lage AGI før 2050, mangler det faglig hold å si at ideen er meningsløs.

Når KI-modellene blir gode nok til at de kan løse komplekse oppgaver over tid, risikerer vi å stå overfor enorme samfunnsendringer. Hvilke jobber vil gå tapt? Hvordan vil det påvirke økonomien? Hvordan sikrer vi at slike systemer forblir trygge og kontrollerbare? Dette er ikke sci-fi-spørsmål – det er helt reelle utfordringer som krever planlegging nå.

Vi trenger mer ydmykhet fra ledende stemmer i KI-debatten, snarere enn bråkjekke avvisninger tuftet på svake resonnementer.

Last ned