人工智能闹乌龙?一群学者在使用Google Bard时提交一份虚假违规信息

一群学者在无意中使用Google Bard澳大利亚议会提交了一份关于四大咨询公司的虚假违规信息后,对此表示了道歉。据报道,澳大利亚立法者正在对咨询行业的专业行为进行审查,并有可能决定拆分德勤毕马威普华永道安永等四大会计师事务所。这个学术团体提交了一份他们声称的案例研究,指控这些公司进行了不当审计。

然而,这些案例研究实际上是由Google Bard创建的,其中包含了错误的信息和虚假的指控,如毕马威参与7-11工资盗窃丑闻德勤因对一家建筑公司的账目审计不当而被起诉,以及德勤伪造了咖啡连锁店Patisserie Valerie的账目等。

在四大公司对这些说法表示担忧后,学者们向其道歉,并指责人工智能的使用导致了不准确的结果。名誉教授詹姆斯·格思里在致澳大利亚参议院的信中写道:“鉴于我们也是会计学者,我们一直致力于公共利益,并确保该行业的问责制和透明度,因此我们对此事毫无保留地表示歉意和深切遗憾。”他意识到人工智能可以生成听起来很有权威的输出,但这些输出可能是不正确、不完整带有偏见的。澳大利亚参议员理查德·科尔贝克表示,这一事件表明,如果基本事实不正确,事情会变得失控

人工智能闹乌龙?一群学者在使用Google Bard时提交一份虚假违规信息

另外,因使用人工智能而闹乌龙的事件并不是首例。今年早些时候,一名纽约律师使用ChatGPT研究他提交给法庭的法律案件。然而,由于出现了错误,该律师向法官道歉,并且他和他的伴侣被罚款5,000美元

在这次事件中,我们也能看出以下人工智能未来可能存在的隐患

  1. 偏见和不公平:人工智能算法可能受到训练数据中的偏见和歧视的影响,导致不公平的决策。
  2. 安全和隐私风险:人工智能系统需要大量的数据进行训练,数据的泄露和滥用可能导致个人隐私的侵犯,同时恶意攻击者也可能利用人工智能系统的漏洞进行攻击和欺诈。
  3. 就业市场影响:随着自动化和机器学习的发展,某些工作可能会被自动化取代,可能导致大规模的失业。
  4. 决策透明度和可解释性:一些人工智能算法难以解释其决策的原因,这可能引发在需要透明度和可解释性的应用场景中的信任和伦理问题。

为了应对这些隐患,制定和执行相关的法律和政策,确保人工智能的公正性、隐私和安全性的需求就变得越来越重要。同时,需要开展研究和开发新的算法和技术,提高人工智能的可解释性和透明度。此外,提供相关的培训和教育,帮助人们适应人工智能时代的变化。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索