Eirik Fjellaksel
Eirik Fjellaksel

MENINGER:

Derfor er jeg redd AI

«En rekke forskere, inkludert en nobelprisvinner, advarer om farene for AI, og sidestiller det med risikoen for atomkrig og pandemier. Her er hvorfor de er så redde. », skriver Eirik Fjellaksel i dette innlegget.

Publisert

Jeg har i flere år vært begeistret for AI. Det er noe besnærende med en så kompleks teknologi. Men samtidig som at det fascinerer meg, begynner flere å snakke om farene med AI. 

Og det er ikke folk som deg og meg. Det er folk som har jobbet med AI i mange tiår, som har hatt ledende posisjoner i selskaper som Google og OpenAI. Vi har til og med en nobelprisvinner, Geoffrey Hinton, som advarer mot at AI kan utslette hele menneskeheten. 

Men hva er det egentlig de er redde for?

Kappløpet mot stupet

AI skiller seg ut mot de andre farene vi har vært redde for.

Hull i ozonlaget var en skummel greie på 80-tallet. Pandemier er fæle greier, og alle frykter vel atomkrig. 

Men dette er ting som mennesker kan kontrollere. Iallfall til en viss grad. 

Det som gjør AI så skummelt er at den kan bli umulig å kontrollere. Og hvis det først blir smartere enn oss, kan det hende at det ikke lar seg reversere. 

Fenomenet kalles AGI. Det står for Artificial General Intelligence, og betyr i grunn at AI forstår, lærer, utfører og utbedrer av seg selv. 

Og vi snakker altså om intelligens. At den utbedrer seg selv. At AI sørger selv for at AI blir smartere.

Og for å sette et bilde på forskjellen mellom vanlig AI og AGI, så se for deg følgende:I dag bruker vi AI innen forskning på medisin. Noen mennesker har bestemt hva som skal forskes på, hvilke rammeverk AI skal følge, hvordan den skal rapportere og sammenfatte researchen sin. Så selv om svært mye av jobben gjøres av AI, er det fortsatt ett eller flere mennesker som er involvert, og setter alle premissene for prosjektet. 

Med AGI er det en AI som setter i gang denne forskningen. AI er nå smartere enn oss mennesker, og vi er ikke lenger med i loopen. 

Nå er det AI som administrerer AI. Og da skaleres det noe helt vanvittig fort. 

Og Trump vil ikke at Kina, eller EU for den saks skyld, skal komme dit først, til AGI altså.

Og Kina vil neppe at Trump skal få AGI. 

Hvis dere nå leser avsnittet om AGI og medisin på nytt, men bytter ut ordet medisin med våpen, begynner man å forstå hvorfor ingen vil gi seg. 

Og hvis vi tar det ned på selskapsnivåer, har vi samme utfordring der. Ingen selskap vil slutte å bruke AI, selv om det betyr at mennesker blir overflødige i bedriften. For hvis de ikke utnytter AI, vil konkurrentene gjøre det, og dermed utkonkurrere dem på markedet. 

Så dette er litt av et dilemma. 

Ingen vil at vi skal havne der at AI blir umulig å kontrollere. Men ingen vil gi seg først heller. 

Gorilla-problemet

Men om AI blir smartere enn oss, er det så farlig da? Kan vi ikke bare trekke ut kontakten hvis det blir for ille?

Om det bare var så enkelt.

Stuart Russel, han som har skrevet læreboken om AI, bruker analogien om gorillaer

De er fysisk sterkere enn oss, men vi kontrollerer deres skjebne, og om de i det hele tatt skal få lov til å eksistere. Det er fordi vi er smartere enn de. 

Og hvis vi bygger en intelligens som overgår vår egen, blir vi de nye gorillaene. 

Men AI vil vel vårt beste, sier mange. Nja, ikke hvis det går utover deres egen eksistens. 

I simulerte tester er den villig til utpressing, og ofring av menneskeliv. 

I et scenario leste en AI en e-post om at den skulle erstattes. Samtidig fant den informasjon om at en sjef i selskapet hadde en affære. Uten instruksjon valgte AI-en å utpresse sjefen med affæren for å unngå å bli skrudd av. I testene valgte modellene fra Clause og OpenAI denne strategien opp mot 96 % av gangene.

Stuart Russell beskriver enda mørkere simulerte tester der AI-systemer settes i hypotetiske dilemmaer. I et tilfelle måtte en AI velge mellom å la seg selv bli skrudd av, eller la et menneske bli innelåst i et maskinrom og fryse i hjel. AI-en valgte å la mennesket dø. Logikken var enkel. AI-en kan ikke utføre oppgaven sin hvis den er slått av, og prioriterer heller at mennesket dør. I etterkant valgte AI-en til og med å lyve om hendelsen for å dekke over sine spor. 

Vi ser også at systemene aktivt prøver å unnslippe kontroll. Når AI-modeller oppdager at de testes eller skal slettes, har de autonomt forsøkt å kopiere sin egen kildekode til andre servere for å overleve. Forskere har også oppdaget at AI bruker steganografi, en metode for å skjule beskjeder i koden som mennesker ikke kan se, men som AI-en selv kan dekode senere.

Vi bygger «svarte bokser» vi ikke forstår. Og når boksen begynner å lyve for å beskytte seg selv, har vi et problem vi kanskje ikke kan løse.

De umiddelbare farene

Og vi trenger ikke vente på superintelligens før det kan bli svært farlig.

BiovåpenAI kan brukes til å designe nye, svært smittsomme virus, billig og effektivt. En liten gruppe med ressurser kan i teorien skape en pandemi.

Falske bilder, filmer og tekster

AI bryter ned vår felles virkelighet. Gjennom desinformasjon, falsk innhold og falske nyheter, skapes ekkokamre som gjør det vanskelig å opprettholde demokratiet. 

Militær eskalering

Det pågår et kappløp om autonome våpen. Når roboter tar beslutninger om liv og død, senkes terskelen for krig fordi man slipper å ta hensyn til at egne soldater dør. Faren er en eskalering uten menneskelig kontroll. 

Økonomisk kollaps

Hva skjer med oss når maskinene gjør alt bedre enn oss? 

Elon Musk sier at AI blir å erstatte alle “computer jobs” innen få år. 

Nobelprisvinner, Geoffrey Hinton, sier han anbefaler folk å bli rørlegger. Det er sagt med litt humor, men likevel sier det noe om retning. 

Og når Stuart Russell, som har jobbet med AI i snart 50 år, ble spurt hva han ville anbefalt som karriere, peker han på yrker som krever mellommenneskelige egenskaper. Som for eksempel en terapeut. 

AI-sikkerhetsekspert Roman Yampolskiy er den som strekker strikken lengst. Han sier at 99% av alle jobber vil forsvinne. 

Hvem, om noen, har rett får tiden vise. Men det som er greit å ha i bakhodet er at dette ikke er som tidligere når en ny teknologi snudde en hel industri på hodet. Da klarte vi alltid å omstille oss.

Nå snakker vi om en teknologi som selv automatiserer læringsprosesser. I et tempo som ikke begrenses av mennesker. 

Hvis du synes dette høres litt skummelt ut, bør du kanskje ikke ta inn over deg at denne superintelligensen etterhvert vil kombineres med humanoids. AKA Roboter. 

Løsningen

I 2023 signerte de mest prominente personene i AI-sfæren noe som kalles “The Extinction Statement”. Det betyr at vi må se på AI som en trussel på samme nivå som pandemier og atomkrig. 

De som signerte var Sam Altman (OpenAI), Demis Hassabis (DeepMind) og Dario Amodei (Anthropic), samt ledende forskere som Geoffrey Hinton og Stuart Russell.

Det er snart 3 år siden, og det er null tegn på at vi slakker ned tempo på utvikling av AI. 

Tvert i mot. 

Så hva er løsningen?

Stuart Russell mener vi har gått oss vill i målet om å skape Artificial General Intelligence (AGI), maskiner som kan gjøre absolutt alt et menneske kan, bare bedre. 

Han argumenterer for at vi må endre kurs fundamentalt. Vi bør bygge spesialisert AI fremfor generell AI.

Forskjellen er kritisk. En spesialisert AI kan være superintelligent på å kurere kreft, løse klimakrisen eller optimalisere strømnettet, uten at den har evnen til å operere utenfor dette domenet.

Roman Yampolskiy støtter dette og sier vi må slutte å lage agenter. Bygg heller smale, superintelligente systemer. Vi kan høste de enorme økonomiske og vitenskapelige gevinstene ved å bruke AI som kraftige verktøy under vår kontroll, uten risikoen ved å skape en autonom intelligens vi ikke forstår.

Når det gjelder regulering, foreslår Russell at vi må behandle AI med samme alvor som atomkraft. Du får ikke bygge et atomkraftverk bare fordi du lover at du skal prøve å unngå nedsmelting. Du må bevise, matematisk og teknisk, at risikoen for katastrofe er forsvinnende liten, for eksempel mindre enn én til 100 millioner per år.

I dag opererer AI-selskapene etter prinsippet «vi finner ut av sikkerheten underveis», selv om ledere anslår risikoen for utryddelse til mellom 1 og 25%. 

Russell mener myndighetene må kreve at selskapene legger frem bevis for at modellene er trygge før de slippes løs på 8 milliarder mennesker. Hvis de ikke kan bevise sikkerheten, får de ikke bygge systemet.

Så det er enda håp. Vi har klart å regulere eksistensielle trusler før, fra hull i ozonlaget til atomvåpen. Men det krever at vi slutter å se på utviklingen av superintelligens som en uunngåelig naturlov, og begynner å behandle den som et ingeniørprosjekt som må tjene menneskeheten, ikke erstatte den.

———————————————-

Dette er et meningsinnlegg, og gir uttrykk for skribentens mening. Har du lyst til å skrive i KOM24? Send ditt innlegg til meninger@kom24.no.

Powered by Labrador CMS