Deepseek最出圈的“杀手锏”,除了便宜,还有推理。当人们看着Deepseek是如何拆解问题的,都会相信它是在“深度思考”。大模型真的具备像人一样的思考能力了吗?答案也许出乎意料。在今天举行的亚洲青年科学家基金项目“探索科技新前沿”论坛上,多位专家深度拆解了AI的推理能力,让人们了解了机器智能的“AB面”。
AI就像科学界的“世界语”
“强化学习让大模型学会思考是自然而然的事,因为技术已经到了临界点。”美国普林斯顿大学人工智能创新中心主任王梦迪说。在DeepSeek-R1模型问世前,王梦迪团队用4张GPU训练出具备深度思考能力的32B大模型,全球范围内也有许多团队在推动这一进程。在她看来,DeepSeek的出现是一种必然,但就在一年前,当王梦迪和朋友探讨此事时,几乎无人相信这一时刻会来得如此之快。
美国普林斯顿大学人工智能创新中心主任王梦迪。刘琦摄
而今,具备推理功能的AI正在科学界大放异彩:谷歌Deepmind的阿尔法折叠3采用了生成扩散模型来预测生物大分子结构,预测对象超越了蛋白质,预测准确性超过任何已有工具;王梦迪团队发表了世界首个解码mRNA非翻译区域序列的大模型,将mRNA序列设计效率提升了30%-40%……在AI助力下,人类发现新事物的速度比过去快了十倍甚至更高。王梦迪认为,AI以一种“世界语”的姿态打破了各学科的“方言”,将原本各学科一点点向前推进的发现整合了起来。当前,AI仍处于学习不同学科“语言”的阶段,AI4S(由AI驱动的科学)将是下一个爆发点。
AI能否推导出牛顿三定律
那么,展现出强大推理能力的AI,真的具备像人一样的思考能力了吗?亚马逊云科技上海人工智能研究院院长、资深首席科学家张峥认为,当下推理大模型展现出的智能与人脑并不相同。他的判断依据是:给AI看小球从滑梯上滚落的画面,它能否推理出牛顿三定律?“几乎不可能。”在他看来,当AI学会“反推”,比如从24点游戏中总结出规律,才说明它有了类人智能。王梦迪认同张峥的观点。尽管大模型的思考流程是个黑箱,但科学家仍能从一些词汇的相关连接中推测出机器是否学会某些规律,这种现象被称作“点亮”。王梦迪团队发现,大语言模型已经能够“学会”简单逻辑,比如要求它写出“平仄仄”“仄平平”的诗句时,很容易看到XYY的结构字符被“点亮”。但如果让它解数学题,思维链就没那么清晰了。“你会发现哪儿都点亮了。”据此,王梦迪判断大模型仍然缺乏思考系统性问题的能力。
以具身经验破解“数据墙”
此前,大模型的进化一直遵循着“尺度定律”,即训练数据规模越大,模型性能就会越来越好。随着OpenAI、谷歌、Anthropic在AI模型开发方面陷入瓶颈,越来越人意识到“数据墙”的问题。“‘数据墙’是AI发展下一步必然要解决的问题。”王梦迪说。
当AI科学家苦于数据不够用,也许能从物理学获得灵感。北京大学博雅特聘教授、2023亚洲青年科学家项目物质科学研究员朱华星表示,物理学其实是一门大数据科学。他举例说,大型强子对撞机每秒产生4000万次粒子碰撞,受制于存储空间,绝大部分数据被舍弃了。这些原本被舍弃的数据能否成为“喂大”AI的养料呢?公众科学家也许是一种可借鉴的模式,即开源数据,让有兴趣的人一起来研究。
朱华星认为,想要大模型变得和人一样智能,必须赋予其认识世界的能力。这一观点与当下火热的具身智能不谋而合。相较于语料数据,动作数据其实更多,但已采集的却相当有限。全球所有词汇表加起来才1万多个,但动作几乎是无穷的,这也是当下人形机器人发展如此之快的原因。
原标题:机器智能也有“AB面”,当AI学会“反推”,才真正有了类人智能