全球AI大神Yann LeCun:人工智能还没那么神,人脑更胜一筹!你怎么看?
2025-09-18
在人工智能(AI)的热潮中,Meta首席AI科学家Yann LeCun提出了一个颠覆性的观点:尽管AI技术取得了巨大进步,但机器永远无法完全超越人类智能。LeCun,作为AI领域的领军人物之一,对当前的大语言模型(LLMs)提出了批评,认为大语言模型在推理、规划、持久记忆和理解物理世界方面存在根本性局限。他进一步阐述了“目标驱动AI”的概念,强调AI系统需要通过与物理世界的互动来学习,而非仅仅依赖文本数据。LeCun的这一立场挑战了科技界对通用人工智能(AGI)的乐观预期,并提醒我们,在追求AI技术发展的同时,必须认识到其固有的局限性。Meta首席人工智能科学家Yann LeCun认为,大语言模型(LLMs)永远无法达到人类级别的智能。尽管当前围绕通用人工智能(AGI)的炒作如火如荼,几乎每天都有新闻宣称计算机系统将在各种认知任务上超越人类,但并非所有人都对此持乐观态度。过去一个月内,科技界三位重量级人物——英伟达CEO黄仁勋预测AGI将在五年内实现,被誉为“AGI之父”的Ben Goertzel预计仅需三年,而埃隆·马斯克则一如既往地大胆预测这一转折点将在2025年底到来。然而,Yann LeCun作为Meta的首席AI科学家和图灵奖得主,是这一乐观论调的显著怀疑者。被称为人工智能三巨头之一的LeCun甚至断言:“不存在所谓的AGI,因为人类智能远非通用!”,LeCun更倾向于探索通往“人类级别AI”的道路,但他认为这仍然是一个遥远的目标。LeCun指出,当前AI系统面临的四个关键认知挑战是:推理、规划、持久记忆以及理解物理世界。他指出:“这些是人类智能——实际上也是动物智能——所具备的四个基本特征,而当前的AI系统尚无法做到。”缺乏这些能力使得AI应用受限且容易出错。自动驾驶车辆仍不适宜在公共道路上行驶,家用机器人难以完成基本家务,我们的智能助手只能执行基础任务。这些问题在大语言模型(LLMs)中尤为突出。LeCun认为,LLMs因其过度依赖单一形式的人类知识(即文本)而严重受限。“我们很容易被其语言流畅性所迷惑,误以为它们具有智能,但实际上它们对现实的理解非常肤浅。”他说,“它们的确有用,这一点毋庸置疑。但在通往人类级别智能的道路上,LLM实质上是一个岔道、一种干扰,一个死胡同。”诸如Meta的LLaMA、OpenAI的GPT-4以及谷歌的Bard(Gemini 是Bard 背后的AI技术)等模型,均基于海量数据进行训练。LeCun表示,一个人要读完大语言模型LLMs摄入的所有文本,大约需要花费10万年的时间。但这并不是我们主要的学习方式。我们通过与世界的互动获取远超文本的信息。LeCun估计,一个典型的四岁儿童所接触的数据量比全球最大的大语言模型LLMs多出50倍。“大部分人类知识实际上并非语言,因此这些系统永远无法达到人类级别的智能——除非你改变其架构。”LeCun说。当然,这位63岁的科学家也提出了另一种架构,他称之为“目标驱动AI”。目标驱动的智能系统旨在实现由人类设定的具体目标。它们并非仅依靠纯文本喂养成长,而是通过传感器和视频数据训练来了解物理世界。这种设计产生的“世界模型”能够展示行动的后果,并在系统的内存中更新所有可能的变化。例如,如果将椅子推到房间左侧或右侧会有什么不同?通过经验学习,最终状态逐渐变得可预测,从而使机器能够规划完成各种任务所需的步骤。LeCun对于这一前景抱有信心,但认为这一过程将耗时长久。“最终,机器将超越人类智能……只是这需要一段时间,”他说,“通用人工智能AGI不会马上出现,也绝对不像埃隆·马斯克说的那样2025年就能实现!”