오픈AI(OpenAI) 공동 창업자인 샘 알트먼(Sam Altman)이 전격 사임 후 CEO 자리에 복귀해 흥미로운 정보로 가득했던 지난주 이야기의 새 장을 열었다. 실제로 무슨 일이 일어나고 있으며 우리가 합법적으로 걱정할 수 있는 것은 무엇입니까?
행사 종료 후 데브데이 ~에 있다 OpenAI는 일부 제한 사항을 제거했습니다. 그리고 퓨즈 AI 시스템, 이는 보증입니다 ChatGPT의 성능이 향상되었습니다. 많은 사용자들이 이를 발견하고 신고했습니다. 채팅GPT 이제 그는 자신의 작업에 덜 방해가 되며 더 이상 이러한 "통제" 의도적 오류를 생성하지 않습니다. 과거에는 이러한 문제가 때때로 사용자를 짜증나게 했지만 특정 작업의 "로봇화"를 방해했습니다. 실제로 이는 다음을 의미합니다. 채팅GPT 이전 퓨즈를 사용하지 않기 때문에 많은 작업에서 매우 안정적일 수 있습니다. 예를 들어, 나는 이와 같은 기사를 쓸 때 고의적인 실수를 저지르지 않을 것입니다. 더 일찍이다 채팅GPT 숫자와 특정 사실 정보를 의도적으로 변경하여 사람의 감독이 필요하므로 맹목적으로 사용할 수 없습니다. 에서 데브데이 게다가 이 시스템은 탁월한 안정성과 규칙성을 보여 많은 사람들이 응용 가능성에 있어서 혁명적인 도약을 가능하게 한다고 말합니다.
사용자 정의된 ChatGPT를 추가로 생성할 수 있는 옵션을 통해 이제 자체 지식과 정보 기반을 여기에 로드하여 진정한 지식 마법사로 만들 수 있습니다. 이것은 프레젠테이션 자체에 필적하는 일종의 혁명입니다. 채팅GPT 불과 1년 남짓 전. 맞춤 채팅GPT 따라서 단 몇 번의 클릭만으로 개인 법률 고문, 세무 전문가, 교정자, 심지어 언어 교사가 되어 프로그래밍할 수 있습니다. 형법, 민사소송법의 PDF를 그에게 업로드하기만 하면 한 달에 단 19.55유로에 즉시 "귀하의" 디지털 변호사를 갖게 됩니다.
최근 알트만의 퇴출과 CEO 복직을 둘러싼 논란의 중심에 OpenAI, 따라서 인공 지능의 개발 속도와 방식에 대한 근본적인 불일치입니다. 분쟁의 주요 측면은 다음과 같습니다. 알트만의 비즈니스에서 새로운 서비스와 서비스를 테스트하고 도입하는 접근 방식 오픈.AI.
Altman은 AI의 신속한 개발과 공개 배포를 옹호합니다., 이는 그가 호의를 얻었다는 것을 의미한다 현실적인 상황에서 테스트 진행 실험실 조건에서만 발생하는 것이 아니라 사용자와 직접적으로 이루어집니다. 이 접근 방식은 AI의 공개 및 실제 스트레스 테스트가 기술의 개선과 안전성에 중요하다는 믿음에 기반을 두고 있습니다. Altman은 이러한 방식으로 문제를 더 빠르고 효율적으로 식별 및 수정하고 AI를 개선할 수 있다고 믿습니다. 솔직하게 말하면 알트만은 인간이 의지할 수 없는 인공지능을 선호하지 않는다.
오히려 일부 지도자를 포함한 지역 사회의 일부입니다. OpenAI, 이러한 접근 방식이 보안을 손상시킬 수 있다는 우려를 표명했습니다. 우려되는 점은 충분히 테스트되지 않은 AI 기술이 대중에게 급속히 도입되면 예측할 수 없고 잠재적으로 해로운 결과를 초래할 수 있다는 것입니다. 이 그룹은 기술을 일반 대중에게 공개하기 전에 통제된 실험실 환경에서 철저한 테스트와 기술 개발을 포함하는 보다 신중한 접근 방식을 옹호합니다.
이는 기술적 장벽의 문제라기보다 무엇보다 인공지능의 영향력이라는 사회적 문제라는 점은 누구에게나 분명하다. 보호 장치를 제거함으로써 가능한 프로세스 자동화로 인해 저널리즘을 포함한 많은 직업이 위험에 처해 있습니다. 그곳에서 방대한 데이터베이스에 접근할 수 있고 인간의 실수를 저지르지 않는 AI에게 일상적인 글쓰기를 할당할 수 있습니다. 물론 이 권력에 대한 통제 문제는 정치적 차원에서도 제기되고, 결국에는 인공지능이 정말로 악과 선을 모두 가져온 원자력보다 세상에 더 위험한지에 대한 의문이 제기됩니다.
AI를 개발하고 배포하는 가장 좋은 방법에 대한 이러한 의견 차이는 Altman이 CEO로 사임하고 재임명되도록 만든 OpenAI의 최근 분쟁의 핵심이었습니다. 이번 논쟁은 기술이 빠르게 발전함에 따라 혁신과 보안 사이의 균형에 대한 AI 커뮤니티의 광범위한 딜레마를 반영합니다.