(来源:中国妇女报)
转自:中国妇女报
近年来,AI的发展遵循着一个简单直接的规则——模型越大、能力越强。这个被称为“规模法则”的路径,催生了今天我们看到的各种强大的AI大模型。但同时,随着模型参数量的增大,模型训练的成本、使用的成本也随之飙升,一定程度上制约了大模型的产业应用进程。
清华大学的一项最新研究成果,大模型“密度法则”为AI发展指出一个新方向:AI大模型变强,不应只靠“体型”,更要靠“密度”。
这就好比评价一个武林高手,不是看他块头有多大,而是看他一招一式里蕴含了多少功力。
研究人员表示,实现这样的“能力密度”,不能靠“模型压缩”。研究发现,强行压缩一个大模型,就像是把一本厚厚的字典强行塞进小本子里,很多内容会丢失,导致“智力”下降,因此需要采用更先进的“数据+算力+算法”体系,才能培养出“高密度”的精干小模型。
通过研究过去几年发布的51个开源大模型,研究人员发现:AI大模型的“能力密度”正以指数级速度增长,大约每3.5个月就翻一倍。同学们知道这意味着什么?
打个比方,如果我们需要一个体育馆大小的“大脑”才能完成某项复杂任务,那么约三个半月后,我们只需要一个客厅大小的“大脑”就够了;再过三个半月,这个“大脑”可能只需要一个背包大小。
原来,AI模型不是越大越好,精炼、高效是其未来发展的方向!强大的AI大模型在未来将会更广泛地在手机、电脑、汽车等终端上运行。当芯片的计算能力和AI的智能密度这两条快车道交汇时,“端侧智能”的时代或将来临。届时,个人设备有望拥有前所未有的智能,不仅反应更快,还能更好地保护个人隐私。
上一篇:从“单点突破”向“集群发展”
下一篇:柔性外骨骼机器人助患者自然行走