【宝玉xp】扎克伯格谈超级AI风险:高技术掌握在不靠谱的人手中将是危难

Mark Zuckerberg对超级AI的潜在风险表示担忧,特别是当这种技术掌握在不受信任的人手中时。他认为优秀的开源AI可以成为标准,有助于创造一个更公平、更均衡的竞争环境。他解释了如果较弱的AI试图侵入由更强大的AI保护的系统,成功的几率会较小,这可以作为某种安全机制。然而,他也承认存在风险,特别是当有人使用AI系统制造混乱时,需要警惕并采取缓解措施。

AIGC专区:
https://heehel.com/category/aigc

更多消息:
https://heehel.com/category/ai-news

扎克伯格提到,目前他们更关注当前可见的各种风险,主要是内容相关的风险,如暴力、欺诈行为等。他认为,虽然探讨存在性风险在智力上可能很吸引人,但防范实际危害更为重要。他强调,他们有责任确保在这方面做得更好。

对于开源,扎克伯格表示支持,并认为开源对社区和他们自身都有好处。然而,他也提到,如果模型发生了某种质的改变,他们认为开源它是不负责任的,那么就不会开源。这种质的改变更多是关于模型表现出某种行为后,他们无法进行干预的问题。

他认为,随着时间的推移,他们将更深入地理解这些问题,并将其划分为更细的分类。这也是他们选择开源的原因之一,希望看到其他人观察到的情况以及可以采取的补救措施。

最后,扎克伯格表示对未来持乐观态度,并认为他们最终将能够开源这个项目。但在短期内,他们应该把重点放在处理人们正在利用模型做的事情上,即使这些行为并不具有存在性的威胁,但它们仍是他们在运行服务过程中必须面对的日常问题。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索