OpenAI 认为超人类人工智能即将到来,并希望构建工具来控制它

动态专区:https://heehel.com/category/ai-news

当山姆·奥尔特曼 (Sam Altman) 被 OpenAI 毫不客气地驱逐后,投资者们正准备大干一场,而 Altman 正在策划重返公司的工作内容时,OpenAI 的 Superalignment 团队的成员正在孜孜不倦地解决如何控制比人类更聪明的人工智能的问题。

OpenAI 正在构建框架和工具,以帮助控制具有超人智能的人工智能,它相信这将比预期更早到来。 由 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 于7月成立领导的 Superalignment 团队正在研究管理和监管超级智能人工智能系统的方法。 该团队的目标是整合比人类更聪明的人工智能系统并确保它们的安全。 目前,该团队正在使用较弱的人工智能模型(例如 GPT-2)来引导更先进的模型(GPT-4)朝理想的方向发展。 他们正在探索确保人工智能模型遵循指令、提供准确信息并避免有害行为的方法。 Superalignment团队认为,超人人工智能是一项重大技术挑战,需要人工智能研究界的关注。 然而,一些专家认为,对超级智能的关注有损于解决算法偏差和毒性等紧迫的人工智能监管问题。

然而,或许大家会觉得奇怪——人工智能引导人工智能与防范威胁人类的人工智能有锤子联系?用一个比喻来解释:在这个类比中,弱模型扮演着人类监管者的替身,而强模型则象征着超级智能人工智能。Superalignment 团队指出,与人类可能无法理解超级智能 AI 系统的情况相似,弱模型也无法“理解”强模型的所有复杂性和微妙之处。这使得这种设置在证明对齐假设方面变得非常有用。

OpenAI 认为超人类人工智能即将到来,并希望构建工具来控制它

总体而言,人工智能研究的这一发展可能会对未来的工作和生活产生影响,因为它涉及控制强大人工智能系统的工具的开发。

https://heehel.com/ai-news/sam-altman-on-being-fired-and-coming-back.html

https://heehel.com/aigc/microsoft-eyeing-open-ai-board-seat.html

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索