fbpx

Stoppa AI-utveckling: Elon Musk och toppforskare inom AI kräver moratorium för "hastigheten för AI-utveckling"

Det öppna brevet uppmanar till ett omedelbart stopp för utvecklingen av storskaliga system för artificiell intelligens på grund av säkerhets- och regulatoriska oro.

Ustavite razvoj AI
Foto: envato

I ett öppet brev publicerat av det ideella Future of Life Institute, kräver en grupp artificiell intelligensforskare, inklusive Teslas vd Elon Musk, ett moratorium för utvecklingen av storskaliga artificiell intelligenssystem. Deras brev lyder: Stoppa AI-utveckling! Brevet uttrycker oro över de potentiella risker som dessa system utgör för samhället och mänskligheten, samt bristen på förståelse och kontroll över dem. Forskarna uppmanar AI-labb att sluta uppdatera AI-system starkare än GPT-4 under minst sex månader och arbeta med oberoende tillsynsmyndigheter för att utveckla säkerhetsprotokoll.

En grupp högprofilerade AI-forskare inklusive Teslas vd – Elon Musk och författaren Till Yuval Noah Harari, undertecknade ett öppet brev som kräver ett moratorium för utvecklingen av storskaliga system för artificiell intelligens. Brevet, publicerat av det icke-vinstdrivande Future of Life Institute, noterar att laboratorier för artificiell intelligens runt om i världen befinner sig i en "okontrollerad race" för att utveckla och distribuera system för maskininlärning som är för kraftfulla för någon, inklusive deras skapare, att bemästra. förstått. Eller lyckats kontrollera på ett tillförlitligt sätt.

Stoppa AI-utveckling

Brevet uppmanar specifikt AI-labb, att sluta träna AI-system i minst sex månader, kraftfullare än GPT-4, och arbeta med oberoende regulatorer för att utveckla säkerhetsprotokoll för avancerad AI-design och utveckling. Undertecknarna hävdar att denna paus är nödvändig för att säkerställa säkerheten och regleringen av framtida AI-system med tanke på de höga riskerna, som de representerar för samhället och mänskligheten.

Kravet på ett moratorium kommer sannolikt inte att ha någon omedelbar inverkan på det nuvarande klimatet inom forskning om artificiell intelligens, som har sett teknikföretag som Google och Microsoft rusa sig för att introducera nya produkter utan att fullt ut överväga de säkerhetsmässiga och etiska konsekvenserna. Det är dock ett tecken på ett växande motstånd mot denna "skicka nu och fixa senare", som kan påverka framtida regleringar och lagstiftning.

Panna OpenAI, som han grundade Elon Musk, uttryckte det potentiella behovet av en "oberoende granskning" av framtida AI-system för att säkerställa detta att uppfylla säkerhetsstandarder. Undertecknarna av det öppna brevet hävdar att det nu är dags för AI-labb och oberoende experter att arbeta tillsammans för att utveckla och implementera gemensamma säkerhetsprotokoll för avancerad design och utveckling AI, som granskas och övervakas av oberoende externa experter.

Även om det finns en omedelbar effekt av ett öppet brev osäker, betonar behovet av ständig dialog och samarbete mellan forskare inom artificiell intelligens, teknikföretag och tillsynsmyndigheter för att säkerställa en ansvarsfull utveckling och distribution av AI-system i framtiden.

Med dig sedan 2004

Från år 2004 vi undersöker urbana trender och informerar vår community av följare dagligen om det senaste inom livsstil, resor, stil och produkter som inspirerar med passion. Från 2023 erbjuder vi innehåll på stora globala språk.