来源:@究竟视频微博
#教授称AI对就业的冲击需由保障缓解#【#院士称AI风险加倍#】从信息智能到物理智能,再到生物智能,人类应该如何握住AI发展的缰绳?
3月26日,主题为“AI:如何做到应用与治理的平衡推进”的博鳌亚洲论坛2025年年会分论坛在海南BFA国际会议中心举行。来自中国、芬兰、以色列等多个国家的嘉宾进行了讨论。
“智能体的广泛运用,起码让AI的风险高了一倍。”中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤指出,智能体具有自我规划、学习、试点并达到自己目的的能力,是强大的技术工具 。但在其运行过程中,中间路径不可控。“虽然智能算法并非完全的黑盒子,但很多运行机理人们并不清楚。”他认为,这种未知因素使得风险大幅增加,比如智能体可能在执行任务时出现不可预测的行为,导致无法预估的后果。
从经济学角度切入,中国社科院大学教授、国务院原副秘书长江小涓指出,过去十年AI治理原则“落地有限”。“技术是否被社会接受,取决于生产力提升与公平分配两大标准。”她表示,AI对就业和分配的冲击需通过社会保障政策缓解,而非空谈“包容性”。
对于中国大模型DeepSeek的开源,江小涓认为DeepSeek最大贡献在于打破垄断:“当AI从寡头游戏变为充分竞争的市场,许多问题会通过自发秩序解决。”
想要建立AI的“安全围栏”,需要技术、市场、政策、伦理的多轨并行。无论是“全球标准”还是“本地实践”,最终目标仍是让AI服务于人,而非凌驾于人。“让AI能力和AI安全一起稳定地发展,这才是我们想要看到的。”曾毅说道。