En grupp kända forskare och ledande figurer inom området artificiell intelligens (AI) uttryckte sin oro för mänsklighetens framtid med 22 ord. Uttalandet är kort men mycket tydligt: "Att minska risken för utrotning av AI bör vara en global prioritet vid sidan av andra risker på samhällsnivå som pandemier och kärnvapenkrig." Uttalandet undertecknades av Google DeepMinds vd Demis Hassabis, OpenAI vd Sam Altman och Geoffrey Hinton och Yoshua Bengio, båda vinnare av Turing Award för sitt arbete inom AI.
Centrum för AI-säkerhet, en ideell organisation med säte i San Francisco, släppte uttalandet i gemensamt stöd för många viktiga spelare på inom AI-området. Uttalandet erbjuder inga konkreta lösningar, men det ger en enhetlig syn på behovet av ökat fokus på AI-säkerhet.
AI som ett globalt hot
Det är inte första gången som dessa experter har tagit modet till sig att uttrycka sin oro. Några av dem undertecknade ett öppet brev i år, där de uppmanade till en sex månaders "paus" i utvecklingen AI. Brevet har väckt kritik, där vissa säger att det överdriver riskerna med AI, medan andra håller med om riskerna men inte om hur de ska hanteras.
Skeptiker tvivlar på dessa förutsägelser och påpekar att AI-system inte kan hantera ens relativt enkla uppgifter som att köra bil. Trots år av ansträngning och miljarder investeringar inom detta forskningsområde är helt självkörande bilar fortfarande långt ifrån verkligheten. Om AI inte kan bemästra ens denna enda uppgift, vilken chans har den då att uppnå alla andra mänskliga prestationer under de kommande åren? AI som ett globalt hot?!
Men förespråkarna och AI-skeptiker håller med om att AI-system redan utgör en del hot - från att möjliggöra massövervakning, till att driva "predictive policing"-algoritmer och skapa desinformation och falsk information.
"Det finns en mycket vanlig missuppfattning, även i AI-gemenskapen, att det finns bara några "svarta vyer"," är för The New York Times sa Dan Hendrycks, vd AI säkerhetscenter. "Men i verkligheten skulle många människor ta upp oro över dessa saker privat."
AI-säkerhetsdebatten är komplex och kontroversiell, och detaljerna är ofta svåra att förstå. Det grundläggande antagandet är att AI-system snabbt kan avancera och överträffa säkerhetsmekanismer. Som ett exempel nämns ofta den snabba utvecklingen av stora språkmodeller som indikerar det möjliga framtida förvärvet av intelligens. Experter varnar för att med en viss nivå av sofistikering kan det bli omöjligt att kontrollera deras funktion.
En fråga om säkerhet AI är särskilt viktigt för Europa, som har förankrat etiska riktlinjer för tillförlitlig AI i sin policy och sin lagstiftning. I Europa har vi redan sett många exempel på att AI-system används på sätt som strider mot våra värderingar – som användningen av automatiska ansiktsigenkänningsalgoritmer i offentliga utrymmen. Frågan är om regleringen är tillräckligt effektiv, eller om vi kommer att behöva tänka på strängare åtgärder, som att tillfälligt avbryta utvecklingen av AI.
Detta är ytterligare en påminnelse om att vi måste vara försiktiga eftersom "vägen till helvetet är kantad av goda avsikter". Vi måste komma ihåg att teknik inte är bra eller dåligt i sig – det är hur vi använder den som spelar roll. För närvarande verkar AI inte hota oss idag, men det är viktigt att vara vaksam och förbereda sig för alla eventualiteter. Det är trots allt bättre att vara säker än ledsen.