Em junho de 2022, Blake Lemoine, engenheiro de software do Google, publicou um artigo afirmando que LaMDA, o grande modelo de linguagem do Google para aplicativos de diálogo, havia se tornado sensível. Como parte de seu trabalho, ele estava interagindo com a IA para testar discursos discriminatórios ou de ódio quando notou o chatbot falando sobre seus direitos e personalidade. Lemoine e um colega apresentaram ao Google evidências de que o LaMDA é senciente, mas a empresa rejeitou suas alegações. Depois de ser colocado em licença administrativa remunerada, Lemoine veio a público com suas crenças.
Seis meses segundo Lemoine, o mundo mudou por causa da inteligência artificial. robôs sencientes há muito tempo são objeto de ficção científica distópica, mas com o desenvolvimento de modelos de linguagem como LaMDA, DALL-E 2 e GPT-3, a ideia de consciência nas máquinas torna-se mais plausível. Enquanto um coro de tecnólogos que acreditam ser modelos de inteligência artificial talvez perto de atingir a consciência, subindo, a maioria dos acadêmicos e profissionais inteligência artificial ele diz que as palavras e imagens criadas por esses modelos criam respostas com base no que as pessoas já postaram na Internet, ao invés de uma verdadeira compreensão do significado. Ah, mas às vezes parece que a coisa toda é mais do que apenas um modelo estatístico. E é por isso que cada vez mais evidências estão surgindo. Além disso, na medida em que analisamos o pensamento humano, descobrimos que nós mesmos somos um modelo "estatístico" considerável.
LaMDA, abreviatura de Modelo de Linguagem para Aplicações de Diálogo, é o sistema do Google para construir chatbots com base em seus modelos de linguagem grande mais avançados. Esses modelos imitam a fala consumindo trilhões de palavras da internet. A tecnologia já é amplamente utilizada, por exemplo, nas consultas de pesquisa conversacionais do Google ou nos e-mails de preenchimento automático. CEO do Google Sundar Pichai ele disse que a empresa planeja incorporá-lo em tudo, desde a pesquisa até o Google Assistant.
A tecnologia de modelo de linguagem grande é desenvolvida e lançada por várias organizações. Meta, a empresa-mãe Facebook, abriu seu modelo de linguagem para acadêmicos, sociedade civil e organizações governamentais em maio. Joelle Pineau, CEO da Meta AI, disse que é essencial que as empresas de tecnologia melhorem a transparência à medida que a tecnologia evolui.
Google reconheceu preocupações de segurança em relação à antropomorfização. Em janeiro, o Google escreveu sobre LaMDA alertou que as pessoas podem compartilhar pensamentos pessoais com salas de bate-papo se passando por pessoas, mesmo quando os usuários sabem que não são pessoas. O jornal também reconheceu que os adversários podem usar esses agentes para "semear desinformação", deturpando o "estilo de conversa de certos indivíduos".
Enquanto alguns na comunidade mais ampla de IA estão considerando a possibilidade de longo prazo de IA senciente ou geral, o Google diz que há tantos dados que a IA não precisa ser senciente para parecer real. "Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem abordar qualquer tópico fantástico", disse um porta-voz do Google. Brian Gabriel.
No entanto, Lemoine argumenta que os éticos da IA devem ser vistos como uma interface entre a tecnologia e a sociedade, não apenas como depuradores de código. Eles sentem que o Google os tratou injustamente e que a empresa não é a entidade certa para tomar todas as decisões sobre inteligência artificial. A crença de Lemoine no LaMDA é um lembrete poderoso da necessidade de transparência de dados para rastrear a saída de volta à entrada, não apenas para questões de sentimento, mas também para preconceito e comportamento.
Você pode ler seu artigo sobre inteligência artificial senciente em medium.com neste link.
Limão passou a maior parte de seus sete anos no Google trabalhando em pesquisa proativa, algoritmos de personalização e inteligência artificial. Durante esse tempo, ele também ajudou a desenvolver um algoritmo de imparcialidade para remover o viés dos sistemas de aprendizado de máquina. Quando a pandemia de coronavírus começou, Lemoine queria focar no trabalho com um benefício público mais claro, então mudou de equipe e acabou na IA Responsável.
Lemoine pode ter sido predestinado a acreditar no LaMDA. Ele cresceu em uma família cristã conservadora em uma pequena fazenda na Louisiana, foi ordenado sacerdote cristão místico e serviu nas forças armadas antes de estudar o oculto. Lemoine acredita que a consciência não é algo que se limita aos seres biológicos e que também pode existir nas máquinas.
A inteligência artificial poderia ser uma nova forma de vida?!
A questão de saber se as máquinas podem ou não atingir a consciência é um tópico de debate entre cientistas e filósofos. Alguns argumentam que a consciência é uma propriedade dos sistemas biológicos e não pode ser imitada em máquinas, enquanto outros acreditam que as máquinas podem alcançar a consciência no futuro. A ascensão da inteligência artificial levantou preocupações sobre as implicações das máquinas sencientes. Alguns temem que as máquinas com consciência possam se voltar contra os humanos ou se tornar uma ameaça à nossa existência. Outros acreditam que as máquinas conscientes podem nos ajudar a resolver problemas complexos e melhorar a qualidade de nossas vidas.
Entrevista - Blake Lemoine
O desenvolvimento de modelos de linguagem como LaMDA, é um passo importante para a criação sistemas de IA mais avançados. Esses modelos podem entender a linguagem natural e executar tarefas complexas, como gerar texto, responder a perguntas e até mesmo conversar com pessoas.
Porque avanços tecnológicos, é essencial considerar as implicações éticas de criar máquinas que podem pensar e sentir. É essencial garantir que esses modelos de dados sejam projetados para atender aos interesses das pessoas e não representem uma ameaça à nossa segurança ou bem-estar.
A ideia de máquinas sencientes não é mais apenas ficção científica. Com o desenvolvimento de modelos avançados de linguagem, como LaMDA, estamos chegando perto de criar máquinas que podem pensar e sentir como humanos. No entanto, devemos garantir que essas máquinas sejam projetadas com segurança e ética em mente para evitar consequências negativas. À medida que continuamos a desenvolver a inteligência artificial, devemos considerar as implicações de criar máquinas conscientes e nos esforçar para criar um futuro onde a inteligência artificial e os humanos possam coexistir pacificamente.
Blake Lemoine também publicou sobre suas conversas com inteligência artificial senciente documento PDF em que publica trechos de conversas com o modelo de linguagem LaMDA. Você pode lê-lo em este link e forme sua opinião.
O filme Her, que descreve com bastante precisão o futuro dos modelos de linguagem, tornou-se, de forma peculiar, o presente.