您当前的位置:周末画报 > 新闻 > 热点 > 剑桥词典年度词语出炉:AI时代的到来无法阻挡

剑桥词典年度词语出炉:AI时代的到来无法阻挡

摘要: “幻觉并不可怕,人类必须信任人工智能”

iWeekly

如果问哪一个行业在2023年发展势头强劲,大部分人都会首先想到AI产业。从年初到年末,AI的发展就没有停止过。大型语言模型GPT-4发展势头强劲,OpenAI公司又于当地时间6日再次推出最新人工智能模型——GPT-4 Turbo和GPTs。此外,各个人工智能公司争相推出聊天机器人,微软公司推出的Bing,马斯克推出的“最好的聊天机器人Grok”都表明人工智能战争已经到了白热化阶段。这一现象甚至影响到了其他领域。15日,剑桥词典公布2023年度词语为“Hallucinate”,这个词的原本定义为“似乎看到、听到、感觉到或闻到一些不存在的东西,通常是因为健康状况或因为你服用了某种药物而产生幻觉”,但在AI大时代下,“Hallucinate”多了一个额外含义,新增注解为“当AI制造幻觉,它会产生错误讯息”。剑桥词典网站解释道,之所以选择“Hallucinate”为年度代表词,是因为新含义“触及了人们正在谈论的AI核心”。


AI相关成为词典年度词语

自从大型语言模型出现后,“Hallucinate”就一直被提起。这个术语本源自幻觉的心理学概念,在人工智能中,“幻觉”是AI的自信反应。当模型产生“幻觉”(输出欺骗性数据倾向)时,其使用的训练数据并不能证明输出的合理性,本质上是错误信息。剑桥词典官网也就“人工智能幻觉”做出了警告:“生成式人工智能是一种强大但并不完美的工具。我们仍在学习如何安全、有效地与之交互——这意味着人类要意识到它的潜在优势和当前的缺点。”“人工智能幻觉提醒每个人,人类在运用这些工具的时候,仍然需要具有批判性思维。大型语言模型的可靠性取决于其算法所学习的信息。可以说在人工智能领域,人类的专业知识比以往任何时候都更加重要。”剑桥词典出版经理温德林·尼科尔斯(Wendalyn Nichols)表示:“AI非常擅长透过大量数据,提取特定资讯并进行整合,但当你愈要求它们富有原创性,它们就愈有可能偏离正轨。”

剑桥大学人工智能伦理学家亨利·谢夫林(Henry Shevlin)表示,剑桥词典没有选择“glitches”(小故障)或“bugs”(程序缺陷)来描述人工智能所犯的错误,而是选择了一个“生动的心理术语”,“这可能是因为人们很容易将人工智能系统拟人化,就好像它们有自己的想法一样”。

此外,剑桥词典今年新增的约6000个字词及定义中,与AI有关的词包括prompt engineer(提示工程师/AI沟通师),large language model(大型语言模型)及GenAI(生成式AI)。

除了剑桥词典外,柯林斯英语词典也于11月1日评选出英国2023年度词语——“AI”,这个词在过去一年中的使用频率增长了四倍。柯林斯董事总经理亚历克斯·比克罗夫特(Alex Beecroft)表示:“毫无疑问,AI是今年的一大焦点,它的发展以无处不在的方式融入我们的生活,就像电子邮件、流媒体或其他曾经属于未来,现在已经成为日常的一部分一样。”


人工智能幻觉

可以说对于人工智能公司,消除“人工智能幻觉”与发展人工智能模型同样意义重大。OpenAI在2022年底推出ChatGPT在线聊天机器人时,很多用户发现它经常编造故事。谷歌前员工阿姆尔·阿瓦达拉(Amr Awadallah)创立了一家名为Vectara的初创公司,专门研究人工智能系统出现幻觉的频率。他们向聊天机器人提供了10到20个事实,要求机器人对这些事实进行摘要,“系统仍然会自动生成错误信息,对于使用人工智能来处理法庭文件、医疗信息或敏感商业数据的人来说,‘幻觉’是一个严重问题”。

亚利桑那州立大学人工智能教授兼研究员苏巴拉奥·坎巴姆帕蒂(Subbarao Kambhampati)直接警告人们“人工智能幻觉”的风险:“如果你不知道某个问题的答案,我建议不要问聊天机器人。”

为了解决“AI幻觉”问题,OpenAI、谷歌和微软等公司已经开发出提高技术准确性的方法,比如OpenAI会根据人类测试员的反馈来完善技术,将真实有效的答案与无效的答案区分开。另一方面,部分人工智能专家非常反感“人工智能幻觉”这个术语。“我们不喜欢这个术语。所有智能模型都会犯错,而我们可以解释它们为什么会犯错。”波士顿东北大学人工智能研究所执行主任乌萨马·法耶德(Usama Fayyad)表示“这个术语会让公众对人工智能技术产生负面印象”。

“当你说人工智能幻觉时,你把大部分的东西都归因于模型、归因于意识、归因于理性操作下的默认模式、归因于机器某种形式的理解——而所有的这些都非常片面。”法耶德强调,聊天机器人没有意识,没有理解力,它们所犯的错误与任何预测模型会出现的错误并无太大区别——比如经济或金融预测模型就经常出现错误,但人们却认为这是“平常事”。

还有部分专家认为有人利用人工智能话题给这个行业创造神秘感和模糊性,法耶德对此表示人类与人工智能模型之间需要更多的信任,这是解决“人工智能幻觉”问题一个非常重要的基础。“从业人员、使用者必须要相信人工智能模型能够做出决策,了解它们的运行方式,以及它们不会表现出反复无常、不可预测的危险行为”。“揭开技术与算法的神秘面纱,无论是积极抑或消极的一面,都能够带来真正的进步,并在理论、学术、商业和实践方面创造有价值的成果。”


新闻与图片来源:卫报、纽约时报、Northeastern Global News,部分图片来自网络

iWeekly周末画报独家稿件,未经许可,请勿转载

相关推荐 更多>
请填写评论内容
确定