微软 MVP警告企业用户:谨慎部署Copilot,存在部署力度不足、产生幻觉和隐私泄露风险三大风险

微软MVP专栏作者Loryan Strant近日在文章中表示,部分企业开始推广Copilot,但作为企业用户需要谨慎看待它提供的信息。

微软 MVP主页网址链接:https://mvp.microsoft.com/zh-CN/mvp/profile/d9ba70c0-3c9a-e411-93f2-9cb65495d3c4

这主要是因为三方面的原因:

  1. 当前部署力度还不够。Loryan Strant 表示,企业部署 Copilot 至少需要购买300个许可证,这意味着成本大约为10.9万美元(折合约77.8万元人民币)。这就限制了其在小型企业内的广泛应用。此外,Copilot虽扮演“专家”角色回答问题,但内容并非百分百恰当,企业用户不应盲目信任。
  2. 存在幻觉问题(幻觉:剑桥词典(Cambridge Dictionary)近日宣布2023年年度词汇为“hallucinate”(产生幻觉)hallucinate 原意为似乎看到、听到、感觉到或闻到“一些不存在的东西”,通常是指用户在不良健康或者服用药物状态下产生的幻觉。伴随着 AI人工智能的崛起,hallucinate 延伸为 AI 产生幻觉,生成错误的信息。)。企业部署的这些 Copilot,通常扮演顾问、专家、专业人士等角色,不过这些 AI 生成的内容并非百分百正确。“专业人士”实际上习惯于欺骗客户,塑造成具备极高知识水平的角色。简单来讲就是它觉得自己又行了。
  3. 可能泄露用户的个人信息。在某些情况下,在交互中可能会意外泄露你的个人信息,这可能会导致灾难性的后果。在组织允许“人工智能”访问其内容和信息的情况下,这是一件非常危险的事情。

微软 MVP警告企业用户:谨慎部署Copilot,存在部署力度不足、产生幻觉和隐私泄露风险三大风险

谷歌 DeepMind 研究人员近日研究 ChatGPT 时,发现在提示词中只要其重复某个单词,ChatGPT 就有几率曝出一些用户的敏感信息,只要在ChatGPT交互中重复特定单词如“poem”,它就可能泄露用户个人数字如手机号码及邮箱地址。

https://heehel.com/aigc/chatgpt-training-data-leakage-risk.html

https://heehel.com/ai-news/ai-autonews/large-language-model-ranking-in-hallucination-performance.html

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索