[AI-人工智能]人工智能缺乏自主学习能力,不构成生存威胁

PikPak安卓最新版APP v1.46.2_免费会员兑换邀请码【508001】可替代115网盘_全平台支持Windows和苹果iOS&Mac_ipad_iphone -云主机博士 第1张

推荐阅读:

[AI-人工智能]免翻墙的AI利器:樱桃茶·智域GPT,让你轻松使用ChatGPT和Midjourney - 免费AIGC工具 - 拼车/合租账号 八折优惠码: AIGCJOEDISCOUNT2024

[AI-人工智能]银河录像局: 国内可靠的AI工具与流媒体的合租平台 高效省钱、现号秒发、翻车赔偿、无限续费|95折优惠码: AIGCJOE

[AI-人工智能]NexGenAI - 您的智能助手,最低价体验ChatGPT Plus共享账号

[AI-人工智能]边界AICHAT - 超级永久终身会员激活 史诗级神器,口碑炸裂!300万人都在用的AI平台

摘要:新的研究显示,像ChatGPT这样的大型语言模型(LLMs)无法独立学习或在没有明确指示的情况下掌握新技能,这使得它们具有可预测性和可控性。该研究打消了人们对这些模型可能发展出复杂推理能力的担忧,强调虽然LLMs能够生成复杂的语言,但它们不太可能对人类构成生存威胁。然而,人工智能的潜在滥用,例如生成虚假新闻,仍需关注。

关键事实:

  • 大型语言模型(LLMs)无法在没有明确指示的情况下掌握新技能。

  • 研究发现,没有证据表明LLMs具备复杂推理能力的涌现。

  • 应该关注人工智能的滥用,而不是其生存威胁。

来源:巴斯大学

根据巴斯大学和德国达姆施塔特技术大学的新研究,ChatGPT和其他大型语言模型(LLMs)无法独立学习或掌握新技能,这意味着它们对人类不构成生存威胁。

这项研究今天作为第62届计算语言学协会(ACL 2024)年会论文集的一部分发表——这是自然语言处理领域的顶级国际会议。研究显示,LLMs具备遵循指示的表面能力,并在语言方面表现出色,但它们没有能力在没有明确指示的情况下掌握新技能。这意味着它们本质上是可控的、可预测的和安全的。

[AI-人工智能]人工智能缺乏自主学习能力,不构成生存威胁 第1张

通过成千上万次的实验,研究团队证明,LLMs的遵循指示能力(ICL)、记忆和语言能力的结合可以解释LLMs所展现的能力和局限性。

这意味着它们本质上是可控的、可预测的和安全的。

研究团队得出结论,随着这些模型的训练数据集越来越大,它们可以继续被安全地部署,尽管技术仍然可能被滥用。

随着规模的增长,这些模型可能会生成更复杂的语言,并且在遵循明确和详细的提示方面变得更好,但它们极不可能获得复杂的推理技能。

“这种类型的人工智能对人类构成威胁的普遍说法阻碍了这些技术的广泛采用和发展,同时也转移了我们对真正需要关注的问题的注意力,”巴斯大学计算机科学家、新研究的共同作者哈里什·塔雅尔·马达布希博士(Dr Harish Tayyar Madabushi)说道。

由德国达姆施塔特技术大学的伊丽娜·古雷维奇教授(Professor Iryna Gurevych)领导的合作研究团队进行了实验,以测试LLMs完成模型从未遇到过的任务的能力——所谓的涌现能力。

例如,LLMs可以回答关于社会情境的问题,而这些问题它们之前从未被明确训练或编程过。尽管之前的研究表明这是模型“知道”社会情境的产物,但研究人员表明,这实际上是模型利用了LLMs在几个示例下完成任务的已知能力,即“上下文学习”(ICL)的结果。

通过成千上万次的实验,研究团队证明,LLMs的遵循指示能力(ICL)、记忆和语言能力的结合可以解释LLMs所展现的能力和局限性。

塔雅尔·马达布希博士说:“人们担心,随着模型越来越大,它们将能够解决我们目前无法预测的新问题,这可能意味着这些更大的模型可能会获得包括推理和规划在内的危险能力。

“这引发了大量讨论——例如,去年在布莱奇利公园举行的人工智能安全峰会上,我们被要求发表评论——但我们的研究表明,担心模型会自主去做一些完全意想不到的、创新的、潜在危险的事情是不成立的。”

“对LLMs构成的生存威胁的担忧不仅限于非专家,有些全球顶尖的人工智能研究人员也表达了这种担忧。”

然而,塔雅尔·马达布希博士坚持认为,这种担忧是没有根据的,因为研究人员的测试明确表明,LLMs不存在涌现的复杂推理能力。

“虽然关注现有的人工智能滥用潜力,例如虚假新闻的生成和欺诈风险的增加,仍然是重要的,但基于感知到的生存威胁来制定法规还为时过早,”他说。

古雷维奇教授补充道:“……我们的结果并不意味着人工智能完全没有威胁。相反,我们表明,与特定威胁相关的复杂思维技能的所谓涌现并没有证据支持,而且我们可以很好地控制LLMs的学习过程。

“因此,未来的研究应关注模型所带来的其他风险,例如它们可能被用于生成虚假新闻的潜力。”

相关关键词

人工智能, 大型语言模型, ChatGPT, 自主学习, 语言生成, 巴斯大学, 技术大学达姆施塔特, 人工智能安全, ACL 2024, 计算语言学协会, 自然语言处理, ICL, 上下文学习, 模型能力, 模型局限性, 推理能力, 生存威胁, 虚假新闻, 技术滥用, 复杂思维, 计算机科学, 语言能力, 安全性, 可控性, 可预测性, 指示遵循, 数据集, 实验研究, 社会情境, 任务完成, 语言处理, 机器学习, 认知能力, 风险管理, 未来研究, 虚假信息, 科学发现, 研究结果, 人工智能滥用, 创新能力, 模型扩展, 伦理问题, 安全部署, 机器推理, 学习过程, 研究团队, 复杂任务, 监督学习, 人工智能监管


iproyal.png
原文链接:,转发请注明来源!