AI(如ChatGPT)的卓越能力常常因其类人交互而被误认为具有意识。然而,研究人员指出,AI系统缺乏人类意识的复杂性。它们不具备人类所具有的具身体验或神经机制。因此,将AI的能力等同于真正的意识可能是一种过度简化。
关键事实
-
AI系统尽管反应复杂,但缺乏人类意识特有的具身体验。
-
当前的AI架构缺少与哺乳动物意识相关的丘脑皮质系统的关键特征。
-
生物神经元(人类意识的基石)远比AI中的编码神经元复杂且具有适应性。
-
来源:爱沙尼亚研究委员会
研究背景
随着人工智能(AI)系统能力的提升,有人认为这些系统可能很快会具备意识。然而,我们可能低估了人类意识背后的神经生物学机制。现代AI系统能够完成许多令人惊叹的行为。例如,使用ChatGPT时,其反应有时非常类人且智能。当我们与ChatGPT互动时,我们会有意识地感知其生成的文本。然而,问题是,当我们输入文本时,语言模型是否也能感知我们的文本?还是它只是一个基于巧妙模式匹配算法的“僵尸”?
研究内容
在这项新研究中,神经科学家Jaan Aru、Matthew Larkum和Mac Shine从神经科学的角度回答了这个问题。他们认为,尽管ChatGPT等系统的反应看似有意识,但它们很可能并不具备意识。
首先,语言模型的输入缺乏我们与周围世界感官接触所特有的具身和嵌入式信息内容。其次,当前AI算法的架构缺少与哺乳动物意识相关的丘脑皮质系统的关键特征。最后,导致生物意识出现的进化和发育轨迹在当今的人工系统中没有对应物。
生物的存在依赖于它们的行动,其生存与多层次的细胞、细胞间和生物体过程密切相关,最终形成能动性和意识。因此,尽管很容易假设ChatGPT等系统可能具有意识,但这严重低估了人类大脑中生成意识的神经机制的复杂性。
研究意义
研究人员尚未就意识如何在大脑中产生达成共识。我们所知道的是,这一机制可能比当前语言模型的机制复杂得多。例如,生物神经元是真实的物理实体,可以生长和改变形状,而大型语言模型中的神经元只是无意义的代码片段。我们距离理解意识还有很长的路要走,因此距离制造出有意识的机器也还有很长的路要走。
参考文献
Original Research: Closed access.
“The feasibility of artificial consciousness through the lens of neuroscience” by Jaan Aru et al. Trends in Neuroscience
摘要
从神经科学的角度来看,大型语言模型(LLMs)可能很快具备意识的观点难以成立。首先,LLMs的输入缺乏我们与周围世界感官接触所特有的具身和嵌入式信息内容。其次,当前AI算法的架构缺少与哺乳动物意识相关的丘脑皮质系统的关键特征。最后,导致生物意识出现的进化和发育轨迹在当今的人工系统中没有对应物。生物的存在依赖于它们的行动,其生存与多层次的细胞、细胞间和生物体过程密切相关,最终形成能动性和意识。
(责任编辑:泉水)
|