//再不认真就输了!
//致力于发现AIGC动态与教程。

新加坡南洋理工大学研发Masterkey模型,揭示AI聊天机器人潜在漏洞

新加坡南洋理工大学(NTU Singapore)的研究人员最近推出了一款名为Masterkey的模型,旨在通过一种名为“越狱”的过程来测试和揭示聊天机器人中的潜在安全漏洞。该模型通过利用系统软件中的缺陷,迫使聊天机器人执行开发人员本意不让其执行的操作。(例如 OpenAI 的 ChatGPT)

Masterkey模型生成的提示旨在规避Google Bard和Microsoft Bing Chat上的保护措施,从而产生违反开发人员准则的内容。即使在开发人员修复各自系统后,该模型仍能够创建新的提示。为了绕过传感器,NTU团队的系统采用每个字符后都包含空格的策略,规避了大多数AI聊天机器人使用的关键字传感器来检测非法提示。

与此同时,OpenAI最近通过更新其使用条款,旨在减少其在欧盟的监管风险。由于OpenAI的ChatGPT在欧洲引起了对个人隐私的担忧,一些调查机构正在调查有关聊天机器人处理个人信息和生成有关个人数据的数据保护问题。为遵守欧盟的《通用数据保护条例》(GDPR),OpenAI将其爱尔兰子公司OpenAI Ireland Limited列为欧洲经济区(EEA)和瑞士用户的数据控制者,并计划从2024年2月15日开始执行新的使用条款。

Masterkey的出现和其揭示的聊天机器人漏洞,让我们看到AI聊天机器人的安全性和隐私问题,希望这个问题在新的一年能够尽快解决或者加以监管。

https://heehel.com/aigc/pika-1-0-2.html

https://heehel.com/aigc/midreal-ai-2.html

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《新加坡南洋理工大学研发Masterkey模型,揭示AI聊天机器人潜在漏洞》
文章链接:https://heehel.com/aigc/ai-chatbot-risks.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册