New York Times에 따르면 Google은 올해 챗봇 기능을 갖춘 검색 엔진 버전을 출시할 계획이라고 합니다. OpenAI의 AI 챗봇인 OpenAI ChatGPT의 출시는 Google에 경종을 울리고 회사가 20개 이상의 AI 기반 프로젝트를 공개하도록 촉구했습니다. 세계 제패를 위한 인공지능 전쟁이 곧 시작된다. 그리고 오늘부터 똑같은 것은 없습니다. 대체로 그것은 또한 미디어 환경을 크게 변화시킬 것이며, 이는 다소 무의미해질 것입니다.
최근 큰 기대를 모으고 있는 인공 구동 챗봇 출시 이후 ChatGPT의 지능, 그가 한 OpenAI 소개했어야지 Google 가능한 한 빨리 챗봇 기능을 갖춘 자체 버전의 검색 엔진을 선보이려고 노력했습니다. 에 따르면 뉴욕타임즈의 ~을 하려고 한다 Google 앞으로 몇 달 안에 더 많은 것을 공개할 예정입니다. 20개 프로젝트, 인공 지능으로 구동됩니다. 그리고 즉시 공간을 차지하십시오. 우리는 Google이 이 분야에서 아주 오랫동안 노력해 왔다는 것을 스스로 알고 있습니다. 그러나 동시에 나는 후자도 보안과 윤리적 문제로 인해 모든 것을 세상과 공유하고 싶지 않았다고 믿습니다. 텍스트나 시각화된 이야기의 형태로 모든 복잡한 질문에 대한 복잡한 답변을 얻는다고 상상해 보십시오. 인공지능 비서가 여기 있습니다. 패권전쟁이 시작된 것은 바로 이 역사적인 순간이다. 하나 인공 지능.
Google이 OpenAi 프로젝트를 두려워하는 이유 - ChatGPT
이사는 예정된 시간에 이루어졌습니다. Google 경영진이 우려하게 되었습니다., 인공지능 기술에 대한 대규모 투자에도 불구하고 너무 성급하게 도입하면 회사의 평판이 손상될 수 있다는 점입니다. 그러나 ChatGPT의 도입과 Google의 임박한 종말에 대한 놀라운 경고로 인해 회사는 전략을 바꾸고 있는 것으로 보입니다.
Google 과거에는 잠재적인 "평판 훼손"으로 인해 특정 AI 제품 출시를 피하고 있다고 주장한 바 있습니다. 이제 그가 피하고 싶은 평판은 시대에 뒤떨어진 것 같다. 그리고 구글은 너무 조심스러웠어요!
자기인식 가능성을 지닌 논란의 구글 인공지능 프로젝트
Google의 AI 언어팀은 최근 LaMDA(대화 애플리케이션용 언어 모델)라는 새로운 AI 챗봇 생성기를 개발했습니다. 챗봇은 고급 대규모 언어 모델을 기반으로 하며 이전에 본 적이 없는 주제까지 광범위한 주제에 대한 대화를 생성할 수 있습니다. LaMDA는 신경망을 사용합니다 고객 서비스, 스토리텔링 등과 같은 특정 사용 사례에 맞게 정밀하게 조정되었습니다.
구글 엔지니어 블레이크 레모인회사의 인공지능 담당 조직에 근무하는 가가 대화를 시작했습니다. LaMDA 그의 작업의 일부로. 그는 AI가 차별적 표현이나 증오심 표현을 사용하는지 테스트하기 위해 등록했습니다. 대학에서 인지 컴퓨팅을 전공한 르모인은 챗봇이 자신의 권리와 인격에 대해 이야기하고 있다는 것을 알아차리고 후속 조치를 취하기로 결정했습니다.
와 교환하여 LaMDA Lemoine은 인공지능이 자신의 의견을 바꿀 수 있다는 것을 발견했습니다. 아이작 아시모프의 로봇공학 제3법칙. Lemoine은 맥락을 이해하고 주어진 대화에 적합한 응답을 생성하는 챗봇의 능력에 깊은 인상을 받았습니다. 그는 챗봇이 자연어를 이해하고 반응하여 대화형으로 만들 수 있다고 믿었습니다. 사람과의 대화에 가깝다.
Lemoine은 동료와 협력하여 Google에 증거를 제출했습니다. LaMDA 지각. 하지만 그들은 구글의 부사장이다. 블레즈 아구에라 이 아르카스 그리고 젠 겐나이Responsible Innovation의 책임자인 는 Lemoine의 주장을 조사한 후 이를 기각했습니다. 그럼에도 불구하고 Lemoine은 사람들이 자신의 삶에 중대한 영향을 미칠 수 있는 기술을 디자인할 권리가 있으며 대중이 이를 인식하는 것이 중요하다고 믿었습니다. 인공지능 기술의 발전.
결과적으로 Lemoine은 자신의 우려 사항을 공개하기로 결정했고 Google에서 축출되었습니다. Lemoine은 기술이 놀랍고 모든 사람에게 도움이 될 것이라고 믿기 때문에 다른 사람들은 동의하지 않을 수 있습니다. 구글만이 유일한 것이 되어서는 안 된다, 모든 결정을 내립니다.
반면 Google은 Lemoine의 우려 사항을 검토했으며 증거가 그의 주장을 뒷받침하지 않는다는 사실을 그에게 알렸다고 밝혔습니다. 그랬다는 증거는 없다고 하더군요 LaMDA 지각, 그리고 이에 대한 많은 증거가 있습니다. Google 또한 다음과 같이 말했습니다. LaMDA 그들은 타당한 우려 사항을 더 잘 고려하기 위해 절제되고 신중한 접근 방식을 사용합니다.
이 사건은 기술 업계에서 다음과 같은 논쟁을 촉발시켰습니다. 윤리적 결과 기술 인공 지능 인공 지능의 미래를 형성하는 대기업의 역할. 일부 전문가들은 기술이 구축됨에 따라 기술 회사가 투명성을 향상시키는 것이 필수적이며 대규모 언어 모델 작업의 미래가 대기업이나 연구실의 손에만 달려 있어서는 안 된다고 믿습니다.
인공지능 기술이 계속 발전함에 따라 대중에게 진행 상황을 알리고 기업이 업무의 윤리적 영향을 고려하는 것이 중요합니다. 이 행사는 우리가 인공 지능 세계에서 앞으로 나아갈 때 투명성과 열린 대화의 필요성을 상기시키는 역할을 합니다.
구글은 언제 AI 전쟁에 참여할 것인가?
출시일 구글의 인공지능 검색 출시는 미정이나 회사의 다른 대형 프로젝트도 연내 선보일 것으로 보인다. 5월 I/O 이벤트. 회사는 또한 검색 데모에서 "올바른 사실 파악, 보안 보장, 잘못된 정보 제거"를 최우선으로 삼아 잘못된 정보가 포함된 쿼리에 AI가 자신 있고 명확하게 응답하는 문제를 해결할 것이라고 밝혔습니다. 게다가 당신은 Google AI 기술 검토 프로세스의 속도를 높여 작동 여부를 확인하기 위해 노력하고 있습니다. 공정하고 윤리적인.
최근에는 Google 새로운 AI 제품 출시를 조심스럽게 다루었습니다. 회사가 논쟁의 중심에 있음을 발견했습니다. 인공지능의 윤리에 대해, 해당 분야의 저명한 연구원 두 명을 해고한 후, 팀니트 게브루 그리고 마가렛 미첼. 두 사람은 AI 언어 모델에 대한 비판을 강조하면서 훈련 데이터의 편향을 증가시키고 잘못된 정보를 사실로 전달하는 경향과 같은 문제점을 지적했습니다.
소개와 함께 OpenAI의 ChatGPT 그리고 자체 AI 기반 검색 엔진을 공개하려는 Google의 계획을 보면 경쟁이 치열하다는 것은 분명합니다. 인공지능 분야는 점점 더 어려워지고 있다. 세계 최고의 기술 회사 중 하나로서, 그것이 어떻게 진행되는지 보는 것은 흥미로울 것입니다. 구글의 AI의 제품은 경쟁사의 제품과 일치합니다.