fbpx

Zatrzymaj rozwój sztucznej inteligencji: Elon Musk i najlepsi badacze sztucznej inteligencji wzywają do moratorium na „szybkość rozwoju sztucznej inteligencji”

List otwarty wzywa do natychmiastowego wstrzymania rozwoju wielkoskalowych systemów sztucznej inteligencji ze względu na obawy związane z bezpieczeństwem i regulacjami.

Ustavite razvoj AI
Zdjęcie: envato

W liście otwartym opublikowanym przez organizację non-profit Future of Life Institute grupa badaczy sztucznej inteligencji, w tym dyrektor generalny Tesli Elon Musk, wzywa do wprowadzenia moratorium na rozwój wielkoskalowych systemów sztucznej inteligencji. Ich list brzmi: Zatrzymaj rozwój AI! List wyraża zaniepokojenie potencjalnym zagrożeniem, jakie te systemy stwarzają dla społeczeństwa i ludzkości, a także brakiem zrozumienia i kontroli nad nimi. Naukowcy wzywają laboratoria AI do zaprzestania aktualizacji systemów AI silniejszych niż GPT-4 przez co najmniej sześć miesięcy i współpracy z niezależnymi organami regulacyjnymi w celu opracowania protokołów bezpieczeństwa.

Grupa wybitnych badaczy AI, w tym dyrektor generalny Tesli – Elon Musk i autor Do Yuvala Noaha Harariegopodpisały list otwarty wzywający do wprowadzenia moratorium na rozwój wielkoskalowych systemów sztucznej inteligencji. W liście, opublikowanym przez organizację non-profit Future of Life Institute, zauważono, że laboratoria sztucznej inteligencji na całym świecie biorą udział w „niekontrolowanym wyścigu” w opracowywaniu i wdrażaniu systemów uczenia maszynowego, które są zbyt potężne, aby ktokolwiek, w tym ich twórcy, mógł je opanować. zrozumiany. Lub udało się niezawodnie kontrolować.

Zatrzymaj rozwój AI

List w szczególności wzywa laboratoria AI, zaprzestania szkolenia systemów AI na co najmniej sześć miesięcy, potężniejszy niż GPT-4i współpracować z niezależnymi organami regulacyjnymi w celu opracowania protokołów bezpieczeństwa na potrzeby zaawansowanego projektowania i opracowywania sztucznej inteligencji. Sygnatariusze argumentują, że ta przerwa jest konieczna do zapewnienia bezpieczeństwa i regulacji przyszłych systemów sztucznej inteligencji, biorąc pod uwagę wysokie ryzyko, które reprezentują wobec społeczeństwa i ludzkości.

Jest mało prawdopodobne, aby wezwanie do moratorium miało natychmiastowy wpływ na obecny klimat w badaniach nad sztuczną inteligencją, w którym firmy technologiczne, takie jak Google i Microsoft, spieszą się z wprowadzaniem nowych produktów bez pełnego uwzględnienia implikacji związanych z bezpieczeństwem i etyką. Jest to jednak oznaka rosnącego sprzeciwu wobec podejścia „wyślij teraz i napraw później”, co może mieć wpływ na przyszłe regulacje i ustawodawstwo.

Czoło OpenAI, którą założył Elona Muska, wyraził potencjalną potrzebę „niezależnego przeglądu” przyszłych systemów sztucznej inteligencji, aby to zapewnić aby spełnić normy bezpieczeństwa. Sygnatariusze listu otwartego argumentują, że nadszedł czas, aby laboratoria sztucznej inteligencji i niezależni eksperci współpracowali w celu opracowania i wdrożenia wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztuczna inteligencja, które są audytowane i nadzorowane przez niezależnych ekspertów zewnętrznych.

Chociaż efekt jest natychmiastowy listu otwartego niepewny, podkreśla potrzebę stałego dialogu i współpracy między badacze sztucznej inteligencji, firmy technologiczne i organy regulacyjne, aby zapewnić odpowiedzialny rozwój i wdrażanie systemów sztucznej inteligencji w przyszłości.

Z Wami od 2004 roku

od roku 2004 badamy miejskie trendy i codziennie informujemy naszą społeczność obserwujących o najnowszych stylach życia, podróżach, stylu i produktach, które inspirują pasją. Od 2023 roku oferujemy treści w głównych językach świata.