//再不认真就输了!
//致力于发现AIGC动态与教程。

微软 MVP警告企业用户:谨慎部署Copilot,存在部署力度不足、产生幻觉和隐私泄露风险三大风险

微软MVP专栏作者Loryan Strant近日在文章中表示,部分企业开始推广Copilot,但作为企业用户需要谨慎看待它提供的信息。

微软 MVP主页网址链接:https://mvp.microsoft.com/zh-CN/mvp/profile/d9ba70c0-3c9a-e411-93f2-9cb65495d3c4

这主要是因为三方面的原因:

  1. 当前部署力度还不够。Loryan Strant 表示,企业部署 Copilot 至少需要购买300个许可证,这意味着成本大约为10.9万美元(折合约77.8万元人民币)。这就限制了其在小型企业内的广泛应用。此外,Copilot虽扮演“专家”角色回答问题,但内容并非百分百恰当,企业用户不应盲目信任。
  2. 存在幻觉问题(幻觉:剑桥词典(Cambridge Dictionary)近日宣布2023年年度词汇为“hallucinate”(产生幻觉)hallucinate 原意为似乎看到、听到、感觉到或闻到“一些不存在的东西”,通常是指用户在不良健康或者服用药物状态下产生的幻觉。伴随着 AI人工智能的崛起,hallucinate 延伸为 AI 产生幻觉,生成错误的信息。)。企业部署的这些 Copilot,通常扮演顾问、专家、专业人士等角色,不过这些 AI 生成的内容并非百分百正确。“专业人士”实际上习惯于欺骗客户,塑造成具备极高知识水平的角色。简单来讲就是它觉得自己又行了。
  3. 可能泄露用户的个人信息。在某些情况下,在交互中可能会意外泄露你的个人信息,这可能会导致灾难性的后果。在组织允许“人工智能”访问其内容和信息的情况下,这是一件非常危险的事情。

谷歌 DeepMind 研究人员近日研究 ChatGPT 时,发现在提示词中只要其重复某个单词,ChatGPT 就有几率曝出一些用户的敏感信息,只要在ChatGPT交互中重复特定单词如“poem”,它就可能泄露用户个人数字如手机号码及邮箱地址。

https://heehel.com/aigc/chatgpt-training-data-leakage-risk.html

https://heehel.com/ai-news/ai-autonews/large-language-model-ranking-in-hallucination-performance.html

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《微软 MVP警告企业用户:谨慎部署Copilot,存在部署力度不足、产生幻觉和隐私泄露风险三大风险》
文章链接:https://heehel.com/ai-news/mvp-copilot.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

评论 抢沙发

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册