人类需要更多冒险者,但冒险是设定好可控风险的一种追求,人们必需始终坚持一种有准备、有退路的冒险,莫鲁莽行事。
AI从未如此靠近和改变人们的生活。
最近Manus刷屏,国产AI Agent(智能体)再一次让人们感知到创新者的步伐。爆红的Manus一石击浪,引发更多探索。近日国内初创公司DeepWisdom的MetaGPT团队,在开源社区GitHub上传其复刻的产品Open Manus,这预示Agent的门槛并非高不可攀。
人们将今年定义为Agent元年,尽管今年出现现象级的Agent是低概率事件,但Agent作为AI应用的探索,注定将绚丽多彩,并推动AI赋能千行百业,将梦想照进现实。
人们在创新探索中,从没现成模版,需冒险者不断试错,深度探索各种可能性,因此唯有秉持向创新者和冒险者致敬,尊重其创新自由,对其行为无事不扰,同时又有求必应,创新才有真正的包容环境。
AI Agent作为应用智能体,必须依赖人们在大语言模型上的不断投入和不断进化,尤其是大模型幻觉依然困扰AI落地的情况下。这也引发一个值得思考的问题,那就是如何平衡大语言模型的进化与Agent发展之间的匹配,如何识别和避免AI Agent的冒险与冒进的边界问题。
当前必须警惕的是,即便是世界上最先进的大语言模型,依然未能解决AI幻觉问题。人们若尚未找到解决AI幻觉的方法,或尚无法确定AI幻觉的运行逻辑,使AI幻觉置于风险可控边界内,加速推进Agent等应用,容易触犯统计学上的两类错误,即选择一个错误答案和舍弃一个正确答案等。毕竟,将充满幻觉的AI通过Agent开发应用到百业,可能带来的不一定是科技向善的改变,有可能打开的是一个潘多拉魔盒。
为此,在将今年定为Agent元年的同时,如何定义人们在Agent上是冒险还是冒进,是必需明确厘定的一个大是大非问题。这就需我们真正将AI从不确定性中拉出来,拉到可能性下的收益场景中。要做到这一点,一是需加快立法确定AI发展的可能性边界,以及通过立法搭建引导确定性创新的激励约束机制;二是厘定AI冒险与冒进的概念边界,明确要求Agent的开发者在探索的同时,必需做好风险策略安排及风险挽救的方式方法,也即要求Agent的应用开发者在开发的同时,构建风险压力测试场景,并必须提供风险阻遏的解决方案,以便给人们一种选择,一旦Agent出现灾难性后果,使用者能一键阻断,坚决避免先上车后买票的风险政策。
当前在AI领域存在一种现象,就是沿用过往应用为主的商业发展逻辑,尤其是在算力面临复杂环境的情况下,算法上的精炼创新和应用上的先行突破似乎正在成为创新者的一个次优选择。但当AI幻觉尚未找到有效管控方法,使用高幻觉率的AI进行Agent开发和商用,就是冒进。要知道,拥有先进大语言模型的公司,在Agent上采取谨慎态度,并非他们不清楚Agent的商业利益,而是他们担心AI幻觉会让冒险变成损害性巨大的冒进。
因此,在AI竞争中,需继续利用比较竞争优势,具体到国内,在算法上进行更多精细化创新,通过算法上的突破降低AI幻觉,或使AI幻觉处于可控状态,同时在算力上加速突破,搭建适配算力资源的算法体系。此外,在Agent上加速布局推理芯片等,通过优化组合推理芯片和推理算法的适配性,在应用层为Agent克服AI幻觉提供对应的解决方案。
冒进诚近贪,自画将岂敢。未来已来,AI应用的星辰大海正在冒险者的前赴后继中不断拓宽可能性边界。为此,必须谨记,人类需要更多冒险者,但冒险是设定好可控风险的一种追求,人们必需始终坚持一种有准备、有退路的冒险,莫鲁莽行事。