//再不认真就输了!
//致力于发现AIGC动态与教程。

OpenAI 认为超人类人工智能即将到来,并希望构建工具来控制它

动态专区:https://heehel.com/category/ai-news

当山姆·奥尔特曼 (Sam Altman) 被 OpenAI 毫不客气地驱逐后,投资者们正准备大干一场,而 Altman 正在策划重返公司的工作内容时,OpenAI 的 Superalignment 团队的成员正在孜孜不倦地解决如何控制比人类更聪明的人工智能的问题。

OpenAI 正在构建框架和工具,以帮助控制具有超人智能的人工智能,它相信这将比预期更早到来。 由 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 于7月成立领导的 Superalignment 团队正在研究管理和监管超级智能人工智能系统的方法。 该团队的目标是整合比人类更聪明的人工智能系统并确保它们的安全。 目前,该团队正在使用较弱的人工智能模型(例如 GPT-2)来引导更先进的模型(GPT-4)朝理想的方向发展。 他们正在探索确保人工智能模型遵循指令、提供准确信息并避免有害行为的方法。 Superalignment团队认为,超人人工智能是一项重大技术挑战,需要人工智能研究界的关注。 然而,一些专家认为,对超级智能的关注有损于解决算法偏差和毒性等紧迫的人工智能监管问题。

然而,或许大家会觉得奇怪——人工智能引导人工智能与防范威胁人类的人工智能有锤子联系?用一个比喻来解释:在这个类比中,弱模型扮演着人类监管者的替身,而强模型则象征着超级智能人工智能。Superalignment 团队指出,与人类可能无法理解超级智能 AI 系统的情况相似,弱模型也无法“理解”强模型的所有复杂性和微妙之处。这使得这种设置在证明对齐假设方面变得非常有用。

总体而言,人工智能研究的这一发展可能会对未来的工作和生活产生影响,因为它涉及控制强大人工智能系统的工具的开发。

https://heehel.com/ai-news/sam-altman-on-being-fired-and-coming-back.html

https://heehel.com/aigc/microsoft-eyeing-open-ai-board-seat.html

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《OpenAI 认为超人类人工智能即将到来,并希望构建工具来控制它》
文章链接:https://heehel.com/ai-news/ai-autonews/ai-controls-ai.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

评论 抢沙发

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册