新加坡南洋理工大学(NTU Singapore)的研究人员最近推出了一款名为Masterkey的模型,旨在通过一种名为“越狱”的过程来测试和揭示聊天机器人中的潜在安全漏洞。该模型通过利用系统软件中的缺陷,迫使聊天机器人执行开发人员本意不让其执行的操作。(例如 OpenAI 的 ChatGPT)
Masterkey模型生成的提示旨在规避Google Bard和Microsoft Bing Chat上的保护措施,从而产生违反开发人员准则的内容。即使在开发人员修复各自系统后,该模型仍能够创建新的提示。为了绕过传感器,NTU团队的系统采用每个字符后都包含空格的策略,规避了大多数AI聊天机器人使用的关键字传感器来检测非法提示。
与此同时,OpenAI最近通过更新其使用条款,旨在减少其在欧盟的监管风险。由于OpenAI的ChatGPT在欧洲引起了对个人隐私的担忧,一些调查机构正在调查有关聊天机器人处理个人信息和生成有关个人数据的数据保护问题。为遵守欧盟的《通用数据保护条例》(GDPR),OpenAI将其爱尔兰子公司OpenAI Ireland Limited列为欧洲经济区(EEA)和瑞士用户的数据控制者,并计划从2024年2月15日开始执行新的使用条款。
Masterkey的出现和其揭示的聊天机器人漏洞,让我们看到AI聊天机器人的安全性和隐私问题,希望这个问题在新的一年能够尽快解决或者加以监管。
https://heehel.com/aigc/pika-1-0-2.html
https://heehel.com/aigc/midreal-ai-2.html