●宋劲松
我国高度重视人工智能治理,党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》指出,“加强网络安全体制建设,建立人工智能安全监管制度”。近年来,《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律法规的出台,共同构筑起我国数据治理和伦理审查的制度基石,有效促进了人工智能治理体系和治理能力的提升。
当技术迭代速度超越治理体系更新能力时,如何平衡创新激励与风险防控,是决定人工智能走向的关键命题。目前全球范围内对人工智能风险的认知和评估能力存在不足,社会监督能力有所欠缺,不同企业对人工智能风险的自治能力差异比较大,政府科学监管的能力亟须与时俱进迭代更新。推进我国人工智能治理体系与能力建设,应更好地适应我国人工智能技术应用场景高速增长的发展态势,不仅要解决部分核心技术仍受制于人、数据质量不均、算力基础设施建设成本高、人才结构不合理等问题,更重要的是治理体系建设需跟上技术更新与扩散的速度。必须更加重视隐私泄露、算法歧视、深度伪造等问题,进一步加强相关法律法规建设,更加重视应对自动化替代低技能岗位引发就业风险、人机协作中权责边界模糊、信息茧房加剧舆论极化等风险。在国际层面,人工智能治理标准的主导权竞争日益激烈,技术自主与开放合作之间的张力持续上升,规则博弈更趋复杂。进一步完善人工智能治理体系,必须及时协调好技术发展与制度回应之间的关系。应在不断培育全球领先的人工智能产业和应用生态的过程中,逐步构建起具有中国特色,适应技术发展节奏,涵盖伦理、法律、监管、安全等多维度的治理框架,并在实践中展现出平衡发展与安全的效能,实现“发展突破快、治理跟得上、统筹有章法”的目标。
(据《光明日报》)