fbpx

奥特曼回归OpenAI:其实是人工智能领域进步与谨慎的冲突

Open.AI 的动荡事件揭示了什么

照片:open.AI/Dev Day

OpenAI 联合创始人 Sam Altman 在意外离职后重返 CEO 职位,为上周充满有趣信息的传奇故事揭开了新的篇章。到底发生了什么以及我们可以合理担心什么?

在事件发生后 开发日 处于 OpenAI 消除了一些限制 和保险丝 人工智能系统,这是一个保证 改进了 ChatGPT 的性能。 许多用户已经注意到并报告说 聊天GPT 现在,他在任务中的干扰减少了,不再制造这些“控制”故意错误。尽管这些过去有时会惹恼用户,但它们阻止了某些任务的“机器人化”。在实践中,这意味着它将 聊天GPT 由于它不使用以前的保险丝,因此在许多任务中可能变得非常可靠。例如,我在写这样的文章时就不会故意犯错误。时间还早 聊天GPT 故意改变数字和某些事实信息,使其无法盲目使用,因为它需要人工监督。从 开发日 此外,该系统表现出卓越的稳定性和规律性,许多人认为这使得应用可能性实现了革命性的飞跃。


通过选择另外创建我们自己的定制 ChatGPT,我们现在可以将我们自己的知识和信息库加载到其中,并使其成为真正的知识向导。这又是一种革命,堪比演示本身 聊天GPT 就在一年多前。 自定义聊天GPT 从而成为您的个人法律顾问、税务专家、校对员,甚至是只需点击几下即可编程的语言老师。只需将《刑法典》、《民事诉讼法》的 PDF 上传给他,您立即就拥有了“您的”数字律师,每月只需 19.55 欧元。

奥特曼最近被罢免并恢复首席执行官职务的争议中心 开放人工智能因此,这是对人工智能发展速度和方式的根本分歧。争议的一个关键方面涉及 奥特曼的 在业务中测试和引入新服务和服务的方法 开放人工智能.


奥特曼倡导人工智能的快速发展和公共部署,这意味着他受到青睐 在现实情况下测试进度 并直接与用户接触,而不是仅仅在实验室条件下进行。这种方法基于这样的信念:人工智能的公共和现实世界压力测试对于技术的完善和安全至关重要。 Altman 认为,这样我们可以更快、更高效地识别和解决问题,并提高 AI​​​​​​坦白说,奥特曼并不赞成人类无法依赖的人工智能。

相反,它是社区的一部分,包括社区中的一些领导者。 开放人工智能,对这种方法可能会损害安全表示担忧。令人担忧的是,未经充分测试的人工智能技术迅速引入公众使用可能会导致不可预测且潜在有害的后果。该组织主张采取更加谨慎的方法,包括在受控实验室环境中对技术进行彻底的测试和开发,然后再向公众发布。​​​​

大家都清楚,与其说是技术壁垒的问题,更重要的是人工智能影响力的社会问题。随着流程的自动化(通过消除保障措施而成为可能),许多工作都面临风险,包括新闻业。在那里,日常写作可以被分配给一个可以访问庞大数据库并且不会犯人为错误的人工智能。当然,即使在政治层面上,也存在对这种权力的控制问题,只有到最后才会出现人工智能对世界是否真的比原子能更危险的问题,原子能带来了坏处和好处。

这种关于开发和部署人工智能最佳方式的意见分歧是 OpenAI 最近发生的一场争论的核心,这场争论导致 Altman 离职并重新被任命为首席执行官。这场争论反映了随着技术的快速发展,人工智能社区在创新与安全之间的平衡方面面临着更广泛的困境。

自2004年以来与您同在

从年 2004 我们研究城市趋势,并每天向我们的追随者社区通报最新的生活方式、旅行、风格和激发激情的产品。从 2023 年开始,我们将提供全球主要语言的内容。