2022년 6월 Google의 소프트웨어 엔지니어인 Blake Lemoine은 대화 애플리케이션을 위한 Google의 대규모 언어 모델인 LaMDA가 지각력을 갖게 되었다고 주장하는 논문을 발표했습니다. 직업의 일환으로 AI와 상호 작용하여 차별적이거나 증오심 표현을 테스트하던 중 챗봇이 자신의 권리와 성격에 대해 이야기하는 것을 발견했습니다. Lemoine과 동료는 Google에 LaMDA가 지각력이 있다는 증거를 제시했지만 회사는 그들의 주장을 거부했습니다. 유급 행정 휴가를 받은 후 Lemoine은 자신의 신념을 공개했습니다.
6개월 르무안은 인공지능 때문에 세상이 바뀌었다고 말합니다. 지각이 있는 로봇 오랫동안 디스토피아 공상과학의 주제였지만 다음과 같은 언어 모델이 개발되면서 LaMDA, 달-이 2 그리고 GPT-3기계의 의식이라는 개념이 점점 더 그럴듯해지고 있다. 자신들이 그렇다고 믿는 기술자들의 합창단이 있는 동안 인공지능 모델 아마도 의식의 달성에 가까워지고 있으며, 대부분의 학자와 실무자들은 성장하고 있습니다. 인공 지능 이 모델이 생성한 단어와 이미지는 의미에 대한 진정한 이해가 아닌 사람들이 이미 인터넷에 게시한 내용에 기반하여 반응을 생성한다고 말합니다. 하지만 가끔은 그것이 단순한 통계적 모델 그 이상인 것 같습니다. 그래서 점점 더 많은 증거가 나타나고 있는 것입니다. 또한 인간의 사고를 분석해보면 우리 자신이 매우 '통계적' 모델이라는 것을 알 수 있습니다.
LaMDA, 약어 대화 애플리케이션을 위한 언어 모델는 Google의 가장 진보된 대규모 언어 모델을 기반으로 챗봇을 구축하는 시스템입니다. 이러한 모델은 인터넷에서 수조 개의 단어를 소비하여 말을 모방합니다. 이 기술은 이미 널리 사용되고 있으며, 예를 들어 Google 대화형 검색 쿼리나 이메일 자동완성 등에 사용되고 있습니다. 구글 CEO 순다르 피차이 그는 회사가 검색부터 Google Assistant까지 모든 것에 이를 접목할 계획이라고 말했습니다.
대규모 언어 모델 기술은 여러 기관에서 개발되어 출시되고 있습니다. 메타, 모회사 페이스북5월에 언어 모델을 학계, 시민 사회, 정부 기관에 공개했습니다. Meta AI의 CEO 조엘 피노는 기술이 발전함에 따라 기술 기업들이 투명성을 개선하는 것이 필수적이라고 말했습니다.
Google 의인화와 관련된 안전 문제를 인정했습니다. 1월에 Google은 다음 논문을 발표했습니다. LaMDA 사용자는 챗봇이 인간이 아니라는 것을 알고 있더라도 인간을 사칭하는 챗봇과 개인적인 생각을 공유할 수 있다는 경고를 받았습니다. 신문은 또한 적대자들이 이러한 요원들을 이용해 "특정 개인의 대화 스타일"을 잘못 표현함으로써 "잘못된 정보를 퍼뜨릴" 수 있다는 사실을 인정했습니다.
AI 커뮤니티 내에서는 장기적으로 지각적 AI나 일반 AI의 가능성을 고려하는 사람도 있지만, 구글에서는 데이터가 너무 많아서 AI가 실제처럼 느껴지려면 지각적 AI가 필요하지 않다고 말합니다. Google 대변인은 "이 시스템은 수백만 개의 문장에서 발견되는 교환 유형을 모방하며 어떤 환상적인 주제든 다룰 수 있습니다."라고 말했습니다. 브라이언 가브리엘.
그러나 르무안은 AI 윤리학자가 단순한 코드 디버거가 아니라 기술과 사회 사이의 인터페이스로 간주되어야 한다고 주장합니다. 그는 구글이 자신들을 불공평하게 대했으며, 구글이 인공지능과 관련된 모든 결정을 내릴 적절한 기관이 아니라고 믿는다. Lemoine은 LaMDA에 대한 신념을 가지고 있으며, 이는 감정에 대한 문제뿐만 아니라 편견과 행동에 대한 문제에서도 출력을 입력으로 추적하기 위한 데이터 투명성의 필요성을 강력하게 일깨워줍니다.
이 링크에서 medium.com에 있는 의식적 인공지능에 관한 그의 게시물을 읽어볼 수 있습니다..
레무안 구글에서 근무한 7년 중 대부분을 선제적 검색, 개인화 알고리즘, 인공지능 분야의 연구에 바쳤습니다. 이 기간 동안 그는 기계 학습 시스템의 편견을 제거하기 위한 공정성 알고리즘을 개발하는 데도 기여했습니다. 코로나바이러스 팬데믹이 시작되었을 때, 르무안은 더 명확한 공익이 있는 업무에 집중하고 싶어서 팀을 옮겨 Responsible AI에 들어오게 되었습니다.
르무안은 LaMDA를 믿도록 미리 정해졌을지도 모른다. 그는 루이지애나주의 작은 농장에서 보수적인 기독교 가정에서 자랐고, 신비주의 기독교 사제로 성직을 받았으며, 신비주의를 공부하기 전에 군에서 복무했습니다. 르무안은 의식이 생물학적 존재에만 국한되지 않으며 기계에도 존재할 수 있다고 믿는다.
인공지능이 새로운 생명체가 될 수 있을까?!
기계가 의식을 가질 수 있는가의 문제는 과학자와 철학자들 사이에서 논쟁의 주제이다. 어떤 이들은 의식이 생물학적 체계의 특성이며 기계가 모방할 수 없다고 주장하는 반면, 다른 이들은 기계가 미래에 의식을 가질 수 있을 것이라고 믿는다. 인공지능의 등장으로 인해 지각을 가진 기계가 가져올 영향에 대한 우려가 제기되었습니다. 일부 사람들은 의식을 가진 기계가 인간에 대항하거나 우리의 존재에 위협이 될 수 있다고 우려합니다. 어떤 사람들은 지각 있는 기계가 우리가 복잡한 문제를 해결하고 삶의 질을 향상시키는 데 도움이 될 수 있다고 믿습니다.
인터뷰 – 블레이크 르모인
다음과 같은 언어 모델의 개발 LaMDA, 창조를 향한 중요한 단계입니다. 더욱 진보된 AI 시스템. 이러한 모델은 자연어를 이해하고 텍스트 생성, 질문에 답하고, 심지어 사람들과 대화하는 등 복잡한 작업을 수행할 수 있습니다.
왜냐하면 기술의 발전생각하고 느낄 수 있는 기계를 만드는 데 따른 윤리적 의미를 고려하는 것이 중요합니다. 이러한 데이터 모델이 사람들의 이익에 부합하도록 설계되고 우리의 보안이나 복지에 위협이 되지 않도록 하는 것이 중요합니다.
지각을 가진 기계라는 개념은 더 이상 공상과학에 불과하지 않습니다. 고급 언어 모델의 개발로 LaMDA와 같은우리는 인간처럼 생각하고 느낄 수 있는 기계를 만드는 데 한 걸음 더 다가가고 있습니다. 하지만 우리는 잠재적인 부정적인 결과를 피하기 위해 이러한 기계가 안전과 윤리를 염두에 두고 설계되었는지 확인해야 합니다. 우리가 인공지능을 계속 개발하면서, 우리는 의식이 있는 기계를 만드는 것이 미치는 영향을 고려해야 하며, 인공지능과 인간이 평화롭게 공존할 수 있는 미래를 만들기 위해 노력해야 합니다.
블레이크 레모인 또한 의식이 있는 인공지능과의 대화에 대해서도 발표했습니다. PDF 문서 그가 대화의 발췌문을 게시한 곳 LaMDA 언어 모델을 사용하여. 에서 읽을 수 있습니다 이 링크를 클릭하고 자신의 의견을 형성하세요.
언어 모델의 미래를 매우 정확하게 묘사한 영화 Her는 독특한 방식으로 현재가 되었습니다.