//再不认真就输了!
//致力于发现AIGC动态与教程。

OpenAI 增强安全团队并赋予董事会对危险人工智能的否决权

OpenAI 在扩展其内部安全流程方面的举措以应对有害 AI 的威胁,OpenAI高层推出了一份更新的“准备框架”。OpenAI 的目标是识别、分析和决定如何应对他们正在开发的模型中的“灾难性”风险。他们通过对模型的四个风险类别进行评估,并根据风险级别制定相应的应对措施。此外,OpenAI 还特别成立了一个“跨职能安全咨询小组”,负责审查和提出建议。他们的建议将同时发送给董事会和领导层,董事会有权推翻决策。这一举措旨在避免高风险产品或流程未经董事会的认可就被批准的情况发生。

这一举动应该是受先前OpenAI的CEO——Sam Altman的“离职事件”(事件的始末都是因为一个叫Q*的AI人工智能模型安全隐患问题)影响而作出的。该流程要求将这些建议同时发送给董事会和领导层,他们的理解是指首席执行官 Sam Altman 和首席技术官 Mira Murati 以及他们的副手。领导层将决定是运送还是冷藏,但董事会将能够推翻这些决定。

这有望避免传闻中所述的在董事会不知情或未经批准的情况下,高风险产品或流程获得批准的事件发生。当然,上述戏剧性的结果是两位更具批评性的声音被边缘化,并且任命了一些财力雄厚但并非人工智能专家的人(如布雷特·泰勒和拉里·萨默斯)。这些人可能在财务方面很敏锐,但并非专业的人工智能专家。

假设开发了一个模型来确保“关键”风险类别。OpenAI过去一直不吝表扬他们的模型有多么强大,以至于他们拒绝发布它们,这是很好的宣传。但如果风险是如此真实且OpenAI如此担心,我们是否能确保这种情况不会发生呢?也许这是一个不明智的决定。但无论如何,它并未被真正讨论到。

https://heehel.com/ai-news/ai-autonews/q-star-threatens-humanity.html

https://heehel.com/ai-news/sam-altman-on-being-fired-and-coming-back.html

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《OpenAI 增强安全团队并赋予董事会对危险人工智能的否决权》
文章链接:https://heehel.com/ai-news/openai-security-team.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

评论 抢沙发

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册