在2025世界人工智能大会(WAIC 2025)上,一位传奇人物首次亮相上海点燃了大会热情。他就是被誉为“AI之父”的图灵奖得主、2024年诺贝尔物理学奖获得者杰弗里·辛顿(Geoffrey Hinton)。
这是辛顿首次公开踏上中国土地。作为全球人工智能(AI)领域最具影响力的科学家之一,他在人工智能技术发展突飞猛进的关键时刻,用直白却深刻的语言引发全球关注与深思。
来自“科学世家”
辛顿的科学之路,几乎可以说是刻在血脉中的传承。
他出身于一个横跨数学、物理、农业与人工智能不同领域的科学世家:曾祖父乔治·布尔是维多利亚时期的逻辑学家,他的工作涵盖对计算机科学和概率的研究;祖父是数学家查理斯·辛顿,创造了“tesseract”(四维超立方体)一词,并普及了更高层次的概念;父亲霍华德·辛顿则投身于昆虫学研究,是自然科学领域的重要学者。
而这个家族最富传奇色彩的分支,则与中国紧密相连。辛顿的姑姑寒春(Joan Hinton)、姑父阳早(Erwin Engst)以及他们的儿子阳和平(Fred Engst)与中国有着不解之缘。
寒春是20世纪极为罕见的女性核物理学家之一,师从“原子弹之父”费米,并亲历了震撼世界的“曼哈顿计划”。然而,她并未选择在西方科技体系中延续自己的辉煌,而是在1948年来到中国延安,投身农业机械化的建设大业。同年,她在宋庆龄的引荐下与中国共产党建立联系,不久后与自1946年起便在中国工作的阳早结为伴侣。
1949年,这对理科学伉俪携手投身于中国农牧的建设,工作内容包含翻译、农业机械改良、奶牛饲养机械化以及农具革新等,他们把科技与理想播种于黄土地之上,寒春也因此成为中国历史上首位获得“绿卡”的外国人。1952年,他们的长子在北京出生,宋庆龄亲自为其命名为“阳和平”。如今,阳和平是对外经济贸易大学国际经济与贸易学院的副教授,是中国计量经济领域的重要学者。
孤独探索家
20世纪70年代,主流人工智能研究仍沉迷于符号逻辑和专家系统,而彼时的辛顿,却走上了一条几乎没有人看好的道路——研究人工神经网络。这一研究方向如同一片沉寂的荒原,缺乏数据支持也缺乏行业的认同。辛顿就是一位孤独的探索家,信念与热爱如同星星之火,在这片几近空无的领域点燃了微弱却坚定的亮光。
在漫长的坚守之后,转机终于在“千禧年”之初悄然降临。GPU技术的迅猛发展为沉寂已久的人工神经网络注入了新的生命力,这就如同久旱逢甘霖,为辛顿的研究带来了重大的转机。
1998年,辛顿入选英国皇家学会,当时他与大卫·鲁梅尔哈特及罗纳德·威廉姆斯共同撰写了一篇有关“反向传播”概念(Back Propagation)的里程碑式的论文。反向传播是一种训练人工神经网络的方法,被誉为增强机器学习所需的“缺失的数学部分”。人类无需再不断修改神经网络来提高其性能。
反向传播不仅是一项理论上的突破,更在实际应用中深远地改变了世界。如今,每天数以亿计的人在使用基于神经网络的聊天机器人,它们都基于经过大量文本数据训练的神经网络架构解释提示并生成响应。
2012年,辛顿携手两位学生Alex Krizhevsky与Ilya Sutskever,共同打造出改变人工智能历史的深度神经网络模型——AlexNet。这一模型拿到了当年的ImageNet竞赛的冠军,也由此掀起了一波深度学习(DeepLearning:特指基于深层神经网络模型和方法的机器学习)的热潮。
这一年也成为了神经网络从“边缘冷门”转变为“技术核心”的分水岭:自此之后,深度学习被全球科技巨头视为人工智能发展的核心引擎。科技巨头争相投入巨资,推动神经网络技术进入前所未有的黄金时代。学术界亦迅速回归,曾被质疑和忽视的理论,开始成为推动整个人工智能新时代的原点。而辛顿,正是点燃这场技术革命的人。
因在人工智能领域的卓越贡献,辛顿先后摘得图灵奖与诺贝尔物理学奖,成为少有的“图灵诺贝尔双桂冠”得主。这不仅是对他半生坚持与远见的致敬,也象征着一个时代对深度学习与神经网络力量的认同。
“吹哨”AI安全
尽管在人工智能领域建树累累,但辛顿不断对人工智能的发展提出警告。
他多次表示,人工智能的发展速度比专家们曾经预测的要快,而一旦超越人类智能,人类可能无法阻止它掌控一切。他还曾“庆幸”自己已将近80岁,因为他“可能活不到见证这项技术潜在危险后果的那一天”。
在WAIC 2025上,杰辛顿再次以一贯生动却发人深省的比喻,将人工智能与人类的关系描绘得触目惊心。他说:“人类就像在抚养一只幼虎。除非你能非常确定它长大后不会伤害你,否则你就该感到担忧。”
在最新的演讲中,辛顿围绕“数字智能是否会取代生物智能”的主题,系统梳理了当下人工智能的发展脉络与面临的深层挑战。他指出,AI有两大主流范式:一是逻辑型,认为智能本质在于推理,通过符号规则操作符号表达式;二是生物学基础型,认为智能基础在于学习和联结网络,理解先于学习。
1985年,他曾试构建一个结合语言与神经联结的小模型,用于模拟人类如何理解词汇。他认为,如今的大语言模型正是那个模型的衍生——更多词汇作为输入、采用更多层的神经元结构以及更复杂的特征交互模式,但理解语言的方式与人类惊人地相似,甚至也会像人类一样产生“幻觉”。
在谈到生物智能的未来处境时,辛顿毫不讳言地指出,几乎所有专家都已达成共识,人类终将创造出比自己更聪明的人工智能。“人类习惯了作为地球上最聪明的生物,因此很难真正设想一个智能被超越的世界会是什么样子”,他说,“我们创造的AI智能体已能帮我们完成任务,未来还会为了生存和完成目标而寻求更多控制权。”
近些年,辛顿将研究重心转向AI安全,呼吁构建全球性的AI安全协作机制。他在2023年离开谷歌后,频繁发声警告通用人工智能(AGI)可能带来的存在性威胁。他甚至估计,AI接管并摧毁人类文明的概率可能高达10%至20%。
辛顿建议,将至少三分之一的计算资源用于人工智能安全研究,并严厉批评某些大型科技公司将商业利益置于监管之上,放松管制只会让风险加速积聚。