我们热爱生命科学!-生物行
当前位置: 主页 > 神经科学 > 人工智能

为什么AI不能形成人类一样的智能

时间:2025-03-09 13:11来源: 作者:

一项新研究指出,人们对AI智能的认知存在语言上的混淆。尽管像ChatGPT这样的AI能够生成令人印象深刻的文本,但它缺乏真正的理解和意识。AI的“编造”或“幻觉”能力并不等同于人类智能,因为人类智能深深植根于身体体验与世界的联系。研究强调,尽管AI有用,但它缺乏人类的核心特质,如关怀、生存意识和对世界的关注。

关键事实

  • 以ChatGPT为代表的语言模型可以生成文本,但缺乏真正的理解。

  • 与人类不同,AI没有身体体验或情感,这使得它与人类智能有本质区别。

  • AI生成的文本可能传播偏见,甚至在没有意识的情况下产生有害内容。

  • 来源:辛辛那提大学

研究背景

人工智能的出现引发了科技领袖、政治家和公众的不同反应。一些人兴奋地宣扬ChatGPT等AI技术是具有变革社会潜力的有利工具,而另一些人则担心任何带有“智能”一词的工具都有可能超越人类。

辛辛那提大学的哲学和心理学教授Anthony Chemero认为,人们对AI的理解被语言混淆了:尽管AI确实具有智能,但它无法像人类一样智能,尽管“它可以像其创造者一样撒谎和胡说八道”。

研究内容

Chemero在《自然·人类行为》期刊上发表的一篇论文中解释道,根据日常用语,AI确实是智能的,但智能计算机早已存在多年。论文指出,ChatGPT和其他AI系统是大型语言模型(LLM),它们通过从互联网中挖掘的大量数据进行训练,而这些数据往往反映了发布者的偏见。

Chemero表示:“LLM生成的文本令人印象深刻,但常常完全编造内容。它们学会了生成语法正确的句子,但需要的训练量远远超过人类。它们实际上并不知道自己所说的话的含义。”他补充道:“LLM与人类认知的不同之处在于它们没有身体体验。”

LLM的创造者将其编造内容的行为称为“幻觉”,但Chemero认为更准确的描述是“胡说八道”,因为LLM只是通过反复添加统计上最可能的下一个单词来生成句子,而它们并不关心所说内容的真实性。

他还指出,通过一些引导,可以让AI工具说出“带有种族主义、性别歧视和其他偏见的恶意言论”。

研究意义

Chemero的论文旨在强调,LLM并不具备人类智能的特质,因为人类是具身的:我们是始终被其他人类、物质和文化环境包围的生物。他说:“这让我们关心自己的生存和我们所处的世界。”而LLM并不真正存在于世界中,也不关心任何事情。

Chemero总结道,LLM与人类智能的根本区别在于它们“毫不在乎”,而“我们对事物有感情,我们致力于生存,我们关心我们所处的世界”。

原始研究

“LLMs differ from human cognition because they are not embodied” by Anthony Chemero et al. Nature Human Intelligence

摘要

大型语言模型(LLMs)是令人印象深刻的技术创造,但它们不能替代所有关于认知的科学理论。认知科学必须关注人类作为具身的社会动物,嵌入物质、文化和技术环境中的特质。

(责任编辑:泉水)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
特别推荐
推荐内容