炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:DeepTech深科技)
7 月 26 号,2025 世界人工智能大会(WAIC)在上海正式开幕。
这一次,我们迎来了 AI 领域的重量级嘉宾,诺贝尔奖和图灵奖得主杰弗里·辛顿(Geoffrey Hinton)。
这是辛顿首次踏足中国参加线下活动,对于 77 岁、身体欠佳的他来说实属不易,也更能体现出他此次中国行的弥足珍贵。
(来源:资料图)就在 WAIC 开幕前一天,辛顿刚参加了第四届人工智能国际安全对话(International Dialogues on AI Safety,IDAIS)。
他与清华大学交叉信息研究院和人工智能学院院长姚期智、加州大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell),以及上海人工智能实验室主任周伯文教授等 20 余名专家联名签署发布了《AI 安全国际对话上海共识》。
今天,辛顿以一场“数字智能是否会取代生物智能”的演讲为 WAIC 开幕。
首先,辛顿讨论了两种智能范式。
一种是受逻辑启发的方法,也就是传统人工智能(AI)。这种方法的核心观念是“人类智能的本质在于推理”。要实现推理,就需要建立一套符号表达式,再通过符号规则去操作它们。
而信奉这种方法的人认为,学习可以暂缓,首先要理解只是如何以符号表达的形式进行表示。
另一种方法,则是受生物学启发的,也就是艾伦·图灵(Alan Turing)和约翰·冯·诺伊曼(John von Neumann)所推崇的,智能的本质在于(脑细胞)网络的学习。
对人类而言,脑细胞是学习的关键;对计算机来说,就需要模拟。理解学习的机制最重要,而推理可以暂缓。
1985 年,辛顿做了个小模型,尝试结合这两种理论,以解释人们如何理解词汇。他给每个词设置多个不同特征,记录数字特征来预测下一个词,过程中不存储句子而是生成句子并不断预测下一个词。
“相关联性的知识,取决于不同的词的特征与语义特征是如何进行互动的。”辛顿表示。
他接下来提到了推动语言模型发展的几个关键节点。
10 年后,人们沿用此模式建模并扩大规模,成为自然语言真实模拟。20 年后,计算语言学家们终于开始接受并使用“特征向量”(嵌入)技术。
而到了三十年后,谷歌发明了 Transformer 架构,紧接着 OpenAI 向世界展示了基于该架构的大语言模型所具备的强大能力。
如今的大语言模型可视为 1985 年微型语言模型的后代,使用更多词输入、更多层神经元结构,建立更复杂特征交互模式。
大语言模型理解问题方式和人类类似,都是将词语转换成能够相互良好配合的特征向量来实现这种理解的,而且大语言模型是真正能够“理解”它们自己所说的话的。
辛顿将“词语”视作多维度乐高积木。我们拥有的不是几种,而是大约十万种不同类型的“乐高积木”。每一块的形状都不是固定不变,而词语的含义(名字)只是大致告诉你它的“形状”。
辛顿在此前的演讲中就用过这个比喻,他当时的解释更加细致:
“词语”的上面还有“小手”。当你改变词的“形状”时,“小手”的形状也会随之改变。这些词语与词语之间,就是通过“握手”来优化意思理解,类似蛋白质组合氨基酸产生有意义内容。
当词语进入模型,它们在这个高维空间里带着各自初始的、大致的形状,身上还布满了小手。当信息在网络的层级间向上传递时,你就在不断地调整这些词的“形状”和它们“小手”的形状,试图为每个词找到最合适的形态,让它们彼此之间都能完美地“握手”。
这样一来,语言其实就是一种建模过程(搭积木的过程),可根据情况调整所需的词汇(积木)。
最终,这就类似蛋白质组合成氨基酸,词汇的组合会产生有意义的内容。
“其实人脑和神经网络理解意思的方式相似,而且‘幻觉’并非大模型专属,人类也会产生。”辛顿解释道。
接下来,辛顿讨论了人类与大模型的差异性。
计算机科学将软件和硬件分开,软件中的知识永恒存在,即便硬件毁灭,只要软件在就能复活。
但人类不同,人脑是模拟的,神经元连接方式因人而异,知识传播与硬件(大脑)紧密相关,无法像软件知识那样轻易转移。人类的硬件一旦毁灭,所有知识都会烟消云散。所以人类靠学校、老师来传承知识,但效率极低。
人脑知识难以高效转移给他人,每秒最多传递约 10-100 比特信息。当然,人类的优势在于生物计算能耗少,如人类大脑仅需 30 瓦特功率。
相比之下,神经网络之间的知识共享就快多了,尽管能耗很大。
当大模型共享信息时,通过平均化权重,它们一次交互就能分享大量比特的内容。比如在如今大模型的训练中,每个模型都会部署多个副本,去分别学习不同的数据,然后所有副本再进行同步。
这就像人类学会了分身,同时去上不同的课程,然后只要聚在一起,知识就在每个个体中同步完成了。
最后,辛顿讨论了 AI 可能带来的挑战与潜在的应对方法。
几乎所有人都相信,一定会出现比人类更智能的 AI,而 AI 智能体为了完成任务,会想要生存、获得更多控制。
辛顿此前已多次在公开信和演讲中指出,当前 AI 系统已经具备自主学习和演化的潜能。
一旦其拥有长期目标,就可能会发展出与人类目标不一致的“子目标”,甚至试图欺骗人类、操纵人类、逃脱人类的控制。
在此次 WAIC 上,辛顿又拿出了他很经典的比喻:现在的人类就像抚养幼小的虎崽,除非你能非常确定它长大后不会伤害你,否则你就应该担心。
但人类又无法彻底禁止 AI,因为它在很多领域作用重大,所以只能寻找一种办法,确保人类不会被 AI 消灭。
说起来容易,做起来难。
辛顿认为,这种努力应该是全球性的。但他坦言:“各国不会在防御 AI 的危险用途上进行合作。”因为每个国家都有自己的战略考量。
因此,他寄希望于国际社会在“预防 AI 统治世界”这一问题上达成一致,防止 AI 从人类手中夺走控制权。
辛顿最后提议,人类应当建立 AI 安全机构的国际社群,研究训练 AI 向善的技巧。这就好比,“教导孩子成为一个好人”与“让他们变得更聪明”,是两码事。
辛顿提议,各国可在本国主权范围内研究并分享成果(在允许的范围内),全球或 AI 领导国家应思考建立相关网络,研究如何训练聪明的 AI 辅助人类而非消灭或统治人类。
“因为这将是人类长期面临的重要问题。”辛顿说道。
附杰弗里·辛顿生平简介:杰弗里·辛顿(Geoffrey Hinton),被誉为“人工智能教父”,是一位英裔加拿大计算机科学家和心理学家,是深度学习的奠基人之一。
1986 年,他与大卫·拉梅尔哈特(David Rumelhart)等人合作提出了将反向传播算法应用于神经网络训练的划时代方法,使多层神经网络的训练成为可能。这一算法成为后来深度学习的基石。
2012 年,辛顿带领学生亚历克斯·克里泽夫斯基(Alex Krizhevsky)和伊利亚·苏茨克维尔(Ilya Sutskever)开发了卷积神经网络 AlexNet,在 ImageNet 图像识别竞赛中远超其他模型,引爆了深度学习浪潮。
随后,辛顿创立的 DNNresearch 公司被谷歌收购,他本人也加入谷歌大脑团队,成为推动 AI 产业化的重要力量之一。
由于在神经网络领域的卓越贡献,他于 2018 年获得 ACM 图灵奖,与杨立昆(Yann LeCun)和约书亚·本吉奥(Yoshua Bengio)共享该荣誉。2024 年,他又被授予诺贝尔物理学奖,表彰其在 AI 模型结构方面的突破性贡献。
近年来,辛顿的研究重心逐渐转向 AI 安全问题。他认为 AI 的发展速度已经远超预期,其潜力和风险都不容忽视。在 2023 年离开谷歌后,他更加频繁地公开发声,表达对通用人工智能(AGI)未来影响的担忧。
他此前曾估计,AI 接管并摧毁人类文明的概率在 10% 到 20% 之间,虽然不是必然结局,但足以令人警惕。
至于如何应对 AI 风险,辛顿呼吁科技公司和政府投入更多资源进行 AI 安全研究。他建议至少将三分之一的计算资源用于研究如何确保 AI 系统不会偏离人类意图。他还批评一些大型科技公司为追求商业利益而游说放松监管,认为这是一种极其危险的趋势。
在技术层面,他尝试提出新的神经网络训练方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向传播的更安全、灵活的训练机制。
总的来说,辛顿既是深度学习崛起的重要推动者,也成为了重视 AI 安全呼声中最具分量的声音发出者:呼吁人类社会保持警觉,在继续推动 AI 创新的同时,必须正视其潜在的社会风险和生存性挑战。
参考资料:
WAIC 直播
https://blog.biocomm.ai/2025/04/28/godfather-of-ai-has-new-warning-about-artificial-intelligence-you-should-worry-cbs-news/#:~:text=authoritarians%20more%20oppressive%20and%20hackers,what%E2%80%99s%20coming%20i%20don%E2%80%99t%20think
运营/排版:何晨龙