当人工智能的触角伸向更深处,它既能化身“解码器”,借助脑机接口探索大脑的奥秘,也能成为“试金石”,检验自己在密码学领域的攻防能力。7月27日,由上海期智研究院主办的2025 WAIC人工智能交叉科学论坛上,上海期智研究院、清华大学等机构的科学家带来了最新研究成果。
“我们不只是想要用一个黑盒模型去预测,而是想真正理解其中的机制。”在论坛现场,上海期智研究院PI、清华大学助理教授米璐直言,人工智能和神经科学的交叉不仅仅是概念上的结合,而是正在形成一种新的研究范式。
“我们的大脑,其实远比最先进的AI更加高效。”米璐指出,人工智能的兴起,本就是来自对人脑神经元结构的模仿。然而,几十年来,人工智能逐渐走上了数学计算机驱动的道路,渐渐偏离了最初对生物神经网络的模仿。
人类大脑的神经元数量远超AI大模型的参数数量,但我们大脑消耗的能量极为低廉,这在人工智能中难以实现。一个重要原因在于,“我们一直忽略了大脑的高效性和可塑性。” 米璐说。这正是未来脑科学研究和智能研究需要跨越的鸿沟。人类的大脑终生学习、持续更新,而当前主流的AI模型却很难做到这一点。此外,人脑还有着更复杂、更精妙的结构,比如兴奋神经元和抑制神经元在大脑中交织互动,这种机制至今没有很好地融入AI之中。米璐认为,现在正是神经科学与AI交叉发展的黄金时代。科学家们已经能借助纳米级别的电子显微镜技术,绘制出局部的人类大脑神经元连接图,首次清晰地看到大脑神经网络连接的细节。“我们发现这些连接具有极高的稀疏性和局域性,神经元只与附近很少的神经元相连。”她说道。她和团队正尝试利用AI辅助神经科学家更高效地分析复杂的神经数据。
研究团队开发了AI算法代替人工进行大规模的神经元三维追踪,加速了脑连接结构的重建。此外,还提出了主动学习框架,可以指导如何更好地设计神经科学实验,探索更深层的脑科学机制。
更好地理解大脑之后,也会出现更多的脑机接口应用,实现更好的脑机交互的新范式。比如,在理解神经元活动群体编码的基础上,研究团队通过侵入式芯片进行运动解码,特别是针对在实际应用中芯片位置产生漂移导致产生非稳态的神经元活动的问题,利用AI对非稳态数据进行数据分析,取得了SOTA和鲁棒的解码效果。在另一个视觉输入刺激调控大脑活动的应用中,研究团队根据大脑活动的fMRI数据,生成和神经活动对齐的表征空间,再利用生成式AI生成可以有效调控各个脑区的图片,对精确医疗干预大脑提供技术支撑。
如果说神经科学与AI的交汇像是探索大脑的地图,那么大模型在密码学中的尝试更像是在破解一道道锁。
上海期智研究院PI、清华大学助理教授贺天行在论坛上分享了他关于《大模型密码学能力初探》的研究,他说:“密码学是网络安全的基石,而大模型的能力已经开始对这个领域构成新的变量。”
大模型在密码学上能走多远?为回答这一问题,贺天行团队构建了一个全新的密码学能力评测基准AQUA,涵盖选择题、证明题和夺旗挑战三类任务。他们不仅让大模型作答,还搭建了一个交互式“沙盒”,让模型像黑客一样编写和运行攻击代码,直接尝试破解。结果出乎意料:在基础的多项选择题测试中,大模型令人意外地胜出。人类专家的准确率约为77%,而大模型则达到惊人的97%。“这确实令人吃惊,但仔细想来又合情合理,因为大模型擅长记忆大量基础知识,” 贺天行说,“不过人类可能面临考试的疲劳因素”,但其表现已接近专业安全工程师的水平。密码学是网络安全的基石,任何突破都可能是“双刃剑”。贺天行展示了一个案例:面对经典的“同模攻击”场景,大模型先读取文件和参数,再分析算法漏洞,最后自动生成并执行攻击代码,顺利获取加密信息。“模型并不是万能黑客,但它已经能完成很多原本需要人类专家才能搞定的任务。”研究团队还发现,大模型在密码学任务中表现出较强的“模式化”能力,对教科书级问题掌握得很好,但在面对“变体”或需要创新推理的任务时,仍存在明显不足。这意味着,AI还不足以独立承担高风险的安全任务,但它正在逼近临界点。“这件事的意义不仅在于展示 AI 的能力上限,更在于提醒我们,安全防线需要重新评估。”贺天行总结道。