我的位置: 上观号 > 上海科技 > 文章详情

双图灵奖得主巅峰对话!辛顿与姚期智:在神经科学、自我意识与量子计算中追问AI的尺度

转自:上海科技 2025-07-29 21:06:58

7月26日,在2025世界人工智能大会“人工智能发展与安全”全体会议现场,“AI教父”、图灵奖得主、诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)与图灵奖得主、上海期智研究院院长姚期智展开了一场持续一小时的深度对话。继IDAIS(第四届AI安全国际对话)上关于人工智能安全边界的密集研讨之后,这场高峰会谈聚焦三个看似各自独立、实则与AI深度交叉的领域——脑科学、自我意识与量子计算。

脑科学与AI的关系,不只是灵感起点,

更可能是未来机制改进的线索;

“意识”问题,不只是语义之争,

更事关我们是否正确认识

AI的真正边界;

而量子计算的可能性,

则挑战着整个AI计算范式。

三条支线,一场交锋,

交叉处即是未来。

以下是对话实录节选:

1

大脑与模型之间

还隔着几个“时间尺度”

姚期智提问辛顿

姚期智:

AI底层技术有哪些趋势或方向?

辛顿:

神经网络这个想法本来就是从大脑来的。我们知道它一定行得通——因为大脑就是这么工作的。用简单单元构建网络、通过调节连接强度实现学习,完全是受神经系统启发。

但现在的AI是否还需要继续从大脑获得灵感?我认为,AI已经从大脑学到了很多。但有一个关键方面,我们仍然没有学到,那就是“不同时间尺度的整合”。

目前的AI模型只有两个时间尺度:一个是神经元活动快速响应输入的变化,一个是连接权重缓慢更新。而大脑中的突触连接其实有多种时间尺度:有短暂变化的,也有慢速长期变化的。这种复杂的时间尺度组合可能是实现强大短期记忆与灵活学习的关键。

姚期智:

目前还没有人真正做到这一点,对吧?你提到过早期你和 Ilya Sutskever 曾尝试过引入多时间尺度?

辛顿:

是的,我们在2010年试过,也成功了。但受限于硬件,如果每个训练样本都对应一套快速权重,那您没法统一使用矩阵乘法来加速训练。这是技术瓶颈。

从长远来看,我仍然认为我们应该引入更多时间尺度。比如快速权重可以提供高容量的短期记忆。但目前,我们没有充分利用这一点。

姚期智:

我们很难在大脑上做实验,这是神经科学和AI的最大不同。今天的大型语言模型能反过来给神经科学一些启发吗?

辛顿:

实际上,这已经发生了。比如过去,神经科学家并不相信“随机梯度下降”这种技术能在大型系统中有效。而今天的语言模型证明了它确实有效。可以说,大模型的成功也为神经科学带来了一些新问题和方法。

姚期智:

顺着这个问题,你怎么看Transformer?在大脑中可能存在类似的结构吗?

辛顿:

从表面上看,大脑不像 Transformer,因为后者需要保留很多中间词语的活动模式,这在大脑中是不可能的——神经元数量有限。但通过“快速权重”,大脑或许能以另一种方式达到类似功能。

你可以设想这样一种机制:当前输入产生当前神经活动,同时与记忆系统中的快速权重发生交互,从而激活之前词语的表征。这其实是用另一种方式实现注意力机制。

所以我对快速权重仍然感兴趣——它可能是唯一一种让大脑做出类似 Transformer 行为的路径。

2

AI“理解”了吗?

从行为中寻找答案

姚期智提问辛顿

姚期智:

我记得你在演讲中提到,大型语言模型可以理解自己所说的句子。你能进一步解释一下吗?

辛顿:

我讲一个故事。小时候,我输给我女儿的一次争论。她说“鹦鹉会说话”,我说它们只是发出模仿声音,不理解意思。她坚持说,它们确实能说话,因为它们能正确识别“汽车”这个词。我被她说服了。现在的语言学家其实也有点像我当时那样。

很多人说“这些模型只是预测下一个词,并不理解句子。”但我认为这种说法是错的。如果你真的想预测下一个词,尤其是在回答问题时,你必须已经理解了整个问题。否则你预测不准。

我最有力的证据是这个例子:我说“我在飞往芝加哥的途中看到了大峡谷”,模型回答“这不可能,峡谷飞不起来”。我解释说是我“在飞机上看到的”,模型立刻修正了理解。这种误解与修正,不正是理解的一部分吗?

姚期智:

这其实已经是对话行为中的理解了。那延伸一下,我们现在有了多模态模型,它们理解图片、语音,也能指物操作。是否可以说它们也具有“主观体验”?

辛顿:

这是个经典问题。不同人会用“主观体验”“意识”“感知”等不同表述。我更倾向于丹尼特的观点:没有所谓的“内在剧场”,所谓“主观体验”,是我们在描述自己的感知系统出现了偏差。

如果一个多模态模型在摄像头前被放置一个棱镜,导致它误判物体位置,然后它说:“我误会了,是棱镜折射了光线。我的主观体验是它在那边。”——那它就用“主观体验”这个词的方式和人类完全一样。

姚期智:

如果我们抛开哲学语言,从科学角度讲,理解与否是否真的重要?毕竟我们在做工程、算法。

辛顿:

我认为这非常重要。很多人对超级智能的恐惧不够大,是因为他们相信我们人类有某种独特属性——意识、感知,而AI永远不可能拥有。但这种想法是危险的,它会让我们自满。

3

AI的极限

会被量子撬动吗?

辛顿提问姚期智

辛顿:

我有一些关于量子计算的基础问题。大多数物理理论在极端条件下会失效,量子力学是否也可能如此?特别是在极复杂的纠缠系统中,是否可能会因技术不完美而无法实现量子计算?

姚期智:

理论上只要量子力学成立,就没有这个问题。但实践中,最多能实现60个粒子的深度纠缠。我们还远没到理想状态。

当然,也有人希望如果量子计算不能实现,那可能是计算机科学对物理学的一种反向贡献。尽管目前还没证据表明有理论错误,量子计算依然处于实验验证阶段。

辛顿:

那么假设量子计算最终奏效,未来10到15年内,它是否会极大影响AI?

姚期智:

我认为量子与AI是两种完全不同方向的力量。如果用量子计算来进行机器学习,原则上我们可能得到更强的能力。就像目前AI无法分解大整数,但量子能。虽然AI不是无所不能的,但量子可能补上这块短板。

辛顿:

我曾说过,我们其实是在造“外星生命”,它们拥有不同于人类的思维体系。你怎么看未来是否会发展出“机器心理学”这门学科?

姚期智:

我相信会的。现阶段我们还需要借助人类心理学对AI进行分类和理解。但最终,当AI足够复杂,它们之间的互动、欺骗行为、人类难以理解的决策动机,可能催生出一种全新的心理学体系。而那将不再是我们人类来研究,而是由机器自己去理解彼此。

“上海科技”出品,转载请注明来源

企业及专家观点不代表官方立场

作者:蓝悦

视频制作:嘉源

↓分享

↓点赞

↓在看