7月26日,在2025世界人工智能大会科学前沿全体会议上,覆盖生命科学、量子计算、地球科学等十项AI驱动的科学智能联合创新成果集中亮相,让我们看到AI与基础科学之间互动新模式。
而在这些技术创新的背后,一个问题依旧挥之不去:当AI逐渐接管更多关键决策,我们该如何确保它始终站在安全的这一边?
“要真正让AI落地,安全是最重要的门槛。”上海人工智能实验室青年科学家陆超超说道。
从“打补丁”到“自身免疫”,如何让AI学会“自我克制”
AI的发展如同一场急速冲刺:模型不断变大,能力不断提升,但安全问题却像一个甩不掉的影子。
陆超超坦言,目前绝大多数AI安全措施依然是“打补丁式”的事后修复。“这就像在玩打地鼠,每冒出一个安全漏洞,我们就赶紧去补一个补丁。可随着模型规模的扩大,这种方法已经无法持续。漏洞越来越多,根本补不完。”
团队提出了一个全新的安全理念和范式构建内生安全AI(即Make Safe AI):“从AI诞生的那一刻起,就将安全基因植入其内核,并让它具备与环境共演化、持续学习与自我强化的能力。”
这种方法的最大特点,在于让AI拥有类似人类免疫系统的自我防御和学习能力。“人类从小接种疫苗,生病时产生抗体,下次再遇到同样的病毒就能抵抗。AI也需要这样的安全抗体,”陆超超解释道。
SafeWork安全技术栈正是围绕这个理念打造的。它能够覆盖AI的整个生命周期,包括安全训练、推理过程监控、风险识别,以及自动验证机制,让AI逐渐学会自我审视。“就像教育一个孩子,最终不是靠强迫他背诵道德条文,而是要教会他不断思考自己行为的对与错。”
据介绍,该技术栈的核心模块已在能源等行业应用。“曾经,哪怕AI的一个小‘幻觉’就可能导致严重的电网事故。但我们的清洁能源安全可信基座模型SafeWork-E1,能让AI实时审视自己的决策,一旦发现风险,立刻自我纠正。这不是简单的补漏洞,而是一种持续进化的安全能力。”
“AI的最终形态,必须具备自我免疫、自我修复和持续进化的能力,”陆超超补充道,“否则,我们始终不敢真正放心地把关键任务交给它。”
从“工具”到“伙伴”,AI如何成为“第二思维空间”
如果说AI安全是在给智能机器装上“保险系统”,那么AI与科学的结合,则是在探索如何更好地“踩下油门”。
本次科学前沿全体会议的另一大看点,是上海AI实验室联合多家顶尖科研机构及企业发布十项科学智能联合创新成果。其中每一项成果均标志着AI正在刷新科学发现的新范式。
会上亮相的全球首个基于人工智能的量子计算中性原子排布算法,仅用时60毫秒,便成功构建了最高达到2024个原子的二维和三维无缺陷阵列,规模刷新了世界纪录。据介绍,该算法利用AI技术并行驱动所有原子,为量子计算机走向实际应用解决了核心难题。
在生物医学领域,“元生”(OriGene)多智能体虚拟疾病学家系统也吸引了不少关注。以肝癌、结直肠癌为例,这个由AI主导的虚拟团队,可以自动提出假设、筛选靶点并进行验证,推动AI驱动靶点及药物发现“新范式”。
而在气候研究方面,名为EarthLink的AI地球科学家智能体系统,更是将科学家从“数据苦海”中解放出来。EarthLink能通过自然语言交互,自动设计实验并分析海量数据,覆盖地球多圈层80%的科学分析场景,将科学家从繁重的数据工作中解放,专注于想法验证与科研创新研究效率相较个人研究者效率提升160倍……
据悉,上述成果,均结合了上海人工智能实验室搭建的“书生”科学发现平台Intern-Discovery的技术或能力。平台整合了专业智能体、海量科研数据及实验设备,能为全球研究者提供从假设到验证的一站式科研支撑。
这些创新背后的逻辑变革,远比技术本身更重要。AI不再是冷冰冰的数据处理机器,而正逐渐成为科研过程中的思维伙伴。上海人工智能实验室表示,未来将加速以新一代通专融合基座模型的方式解决具体科学发现中的关键问题,扩展“书生”科学发现平台Intern-Discovery的学科覆盖范围、基座模型能力、科学数据规模、智能体多样性、实验设施类型等,深化应用场景,联合全球机构、企业与科研学者打造示范应用案例,为科学发现与产业创新提供关键驱动力。
企业及专家观点不代表官方立场
作者:许织
↓分享
↓点赞
↓在看