Em uma carta aberta publicada pelo Instituto sem fins lucrativos Future of Life, um grupo de pesquisadores de inteligência artificial, incluindo o CEO da Tesla, Elon Musk, está pedindo uma moratória no desenvolvimento de sistemas de inteligência artificial em larga escala. A carta deles diz: Pare o desenvolvimento de IA! A carta expressa preocupação com os riscos potenciais que esses sistemas representam para a sociedade e a humanidade, bem como a falta de compreensão e controle sobre eles. Os pesquisadores estão pedindo aos laboratórios de IA que parem de atualizar sistemas de IA mais fortes que o GPT-4 por pelo menos seis meses e trabalhem com reguladores independentes para desenvolver protocolos de segurança.
Um grupo de pesquisadores de IA de alto nível, incluindo o CEO da Tesla – Elon Musk e o autor Para Yuval Noah Harari, assinou uma carta aberta pedindo uma moratória no desenvolvimento de sistemas de inteligência artificial em larga escala. A carta, publicada pelo Future of Life Institute, sem fins lucrativos, observa que os laboratórios de inteligência artificial em todo o mundo estão em uma “corrida descontrolada” para desenvolver e implantar sistemas de aprendizado de máquina que são poderosos demais para qualquer pessoa, incluindo seus criadores, dominar. entendido. Ou conseguiu controlar de forma confiável.
Parar o desenvolvimento da IA
A carta apela especificamente aos laboratórios de IA, parar de treinar sistemas de IA por pelo menos seis meses, mais poderoso que o GPT-4e trabalhar com reguladores independentes para desenvolver protocolos de segurança para design e desenvolvimento avançados de IA. Os signatários argumentam que essa pausa é necessária para garantir a segurança e a regulamentação dos futuros sistemas de IA, dados os altos riscos, que representam para a sociedade e para a humanidade.
É improvável que o pedido de moratória tenha um impacto imediato no clima atual da pesquisa de inteligência artificial, que viu empresas de tecnologia como Google e Microsoft correrem para lançar novos produtos sem considerar totalmente as implicações éticas e de segurança. No entanto, é um sinal de crescente oposição a essa abordagem de "enviar agora e corrigir depois", que pode influenciar futuras regulamentações e legislações.
Testa OpenAI, que fundou Elon Musk, expressou a necessidade potencial de uma “revisão independente” dos futuros sistemas de IA para garantir que para atender as normas de segurança. Os signatários da carta aberta argumentam que agora é a hora de laboratórios de IA e especialistas independentes trabalharem juntos para desenvolver e implementar protocolos de segurança comuns para design e desenvolvimento avançados IA, que são auditados e supervisionados por especialistas externos independentes.
Embora haja um efeito imediato de uma carta aberta incerta, enfatiza a necessidade de diálogo e cooperação constantes entre pesquisadores de inteligência artificial, empresas de tecnologia e reguladores para garantir o desenvolvimento responsável e a implantação de sistemas de IA no futuro.