En gruppe anerkjente forskere og ledende skikkelser innen kunstig intelligens (AI) uttrykte sin bekymring for menneskehetens fremtid med 22 ord. Uttalelsen er kort, men veldig klar: "Å redusere risikoen for utryddelse av AI bør være en global prioritet sammen med andre samfunnsmessige risikoer som pandemier og atomkrig." Uttalelsen ble signert av Google DeepMind-sjef Demis Hassabis, OpenAI-sjef Sam Altman og Geoffrey Hinton og Yoshua Bengio, begge vinnere av Turing Award for sitt arbeid innen AI.
Senter for AI-sikkerhet, en ideell organisasjon basert i San Fransisco, ga ut uttalelsen til felles støtte fra mange viktige aktører på innen AI. Uttalelsen gir ingen konkrete løsninger, men den gir et samlet syn på behovet for større fokus på AI-sikkerhet.
AI som en global trussel
Dette er ikke første gang disse ekspertene har tatt motet til å uttrykke sin bekymring. Noen av dem var underskrivere av et åpent brev i år, der de ba om en seks måneders "pause" i utviklingen AI. Brevet har vakt kritikk, og noen sier det overdriver risikoen som AI utgjør, mens andre er enige i risikoen, men ikke hvordan de skal håndteres.
Skeptikere tviler på disse spådommene, og påpeker at AI-systemer ikke kan håndtere selv relativt enkle oppgaver som å kjøre bil. Til tross for mange års innsats og milliarder av investeringer i dette forskningsområdet, er fullt selvkjørende biler fortsatt langt fra virkeligheten. Hvis AI ikke kan mestre selv denne ene oppgaven, hvilken sjanse har den da til å oppnå alle de andre menneskelige prestasjonene i årene som kommer? AI som en global trussel?!
Men talsmenn og AI-skeptikere enig i at AI-systemer allerede utgjør noen trusler – fra å muliggjøre masseovervåking, til å drive «prediktiv politi»-algoritmer og skape desinformasjon og falsk informasjon.
"Det er en veldig vanlig misforståelse, selv i AI-fellesskapet, som det er bare noen få "svarte visninger"," er for New York Times sa Dan Hendrycks, administrerende direktør AI sikkerhetssentre. "Men i virkeligheten ville mange ta opp bekymringer om disse tingene privat."
AI-sikkerhetsdebatten er kompleks og kontroversiell, og detaljene er ofte vanskelige å forstå. Den grunnleggende antakelsen er at AI-systemer raskt kan avansere og overgå sikkerhetsmekanismer. Som et eksempel blir den raske fremgangen til store språkmodeller ofte trukket frem som en indikasjon på mulig fremtidig tilegnelse av intelligens. Eksperter advarer om at med et visst nivå av sofistikering kan det bli umulig å kontrollere driften deres.
Et spørsmål om sikkerhet AI er spesielt viktig for Europa, som har forankret etiske retningslinjer for pålitelig AI i sin policy og lovgivning. I Europa har vi allerede sett mange eksempler på at AI-systemer brukes på måter som er i konflikt med våre verdier – for eksempel bruken av automatiserte ansiktsgjenkjenningsalgoritmer i offentlige rom. Spørsmålet er om reguleringen er effektiv nok, eller om vi må tenke på strengere tiltak, som å midlertidig stanse utviklingen av AI.
Dette er nok en påminnelse om at vi må være forsiktige fordi "veien til helvete er brolagt med gode intensjoner". Vi må huske at teknologi ikke er iboende god eller dårlig – det er hvordan vi bruker den som betyr noe. Foreløpig ser det ikke ut til at AI truer oss i dag, men det er viktig å være årvåken og forberede seg på alle eventualiteter. Det er tross alt bedre å være trygg enn å beklage.