构建生成式人工智能的安全治理新机制
创始人
2026-01-27 05:47:49

(来源:新华日报)

□ 马近斐

在数字经济与智能革命浪潮中,生成式人工智能已深度融入基层政务信息处理、媒体内容创作等领域,以知识生成延展性重塑生产要素配置,成为新质生产力发展的核心支撑。党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》中强调要“加强网络、数据、人工智能、生物、生态、核、太空、深海、极地、低空等新兴领域国家安全能力建设”,凸显了网络、数据、人工智能等数字技术领域在国家安全中的重要意义。事实上,传统的“先发展后治理”路径不仅可能陷入“技术发展初期难以预测风险,后期风险成型又难以管控”的科林格里奇困境,还可能错失全球AI竞争中的风险防控窗口期。唯有以总体国家安全观为指引,构建韧性防御与激励创新并重的治理机制,方能实现生成式人工智能治理中安全与发展的双赢。

生成式人工智能的国家安全风险研判

有效治理的前提,是对生成式人工智能的国家安全风险形成系统研判。当前风险呈现多维度、跨领域、强关联特征,但聚焦政治、经济、社会安全三大核心领域的根本性风险,可为治理提供精准靶向。

政治安全层面,生成式人工智能的挑战已从潜在威胁转为现实冲击,突出表现为虚假信息工业化生产与文化价值隐性侵蚀。与传统意义上的谣言不同,AIGC虚假信息生成门槛极低,普通人借助简易工具即可完成,且能精准适配地域“需求”。这正是中央网信办“清朗·整治‘自媒体’发布不实信息”专项行动将其列为重点整治对象的核心原因。更隐蔽的风险在于AI训练数据存在内嵌的文化偏好,别有用心者可通过数据植入,在文学创作、历史重构中潜移默化地影响认知。而这容易模糊青少年群体的主流价值观认知,侵蚀国家文化安全根基。

经济安全领域,生成式人工智能使得岗位替代成为社会热议话题,同时有关技术的“卡脖子”问题则成为产业安全的最大软肋。目前,由AI引起的就业结构失衡风险已显现,但与此同时,适配AI时代的职业培训体系尚未完全成型。更需警惕的是技术依赖风险,我国人工智能产业所需要的高端CPU、GPU仍依赖进口,自主芯片在算力密度、能耗比上还有差距。部分国家试图通过小院高墙策略实施芯片出口限制与技术封锁,而这一行为一旦导致产业链核心环节断裂,将直接威胁我国AI产业供应链安全与科技自主权。

社会安全维度,风险已直接触及公众安全感,其中AI诈骗与隐私泄露尤为突出。AI拟声、拟像技术可通过个人语音片段或照片精准模仿他人特征,催生亲情诈骗、商务欺诈等新型犯罪。隐私安全更如定时炸弹:医疗、教育等垂直领域大模型收集的海量敏感数据,既是黑客牟利目标,更可能通过模型推演泄露关键信息,如某能源企业利用AI优化产能时,模型竟可以通过生产数据推算出能源储备与核心设备参数,直接关涉国家能源安全。

总体国家安全观引领治理框架构建

生成式人工智能的治理绝非零散措施的堆砌,需以总体国家安全观为指引构建“理论指导—实践路径—主体协同”的完整框架。

大安全理念要求突破单一技术风险视角,将意识形态、社会秩序、文化传承等纳入全局研判,实现风险的整体性、前瞻性治理;以人民为中心的目标明确AI发展需坚守科技向善,把保障人民生命财产、规范隐私信息风险作为底线;底线思维方式强调主动抢占规则制定权与技术制高点,对主权、稳定等核心问题预置应对措施;发展与安全统筹原则要求,避免一刀切监管抑制创新与无监管导致风险扩散两种极端;人类命运共同体意识则指向积极参与国际规则制定,通过技术安全合作应对跨境风险,避免被国际合作规则边缘化。

治理机制的核心构建路径

从治理机制构建看,需聚焦“主体、方式、依据”三大核心,形成权责清晰、技术适配、规范完备的治理体系。

治理主体层面,应构建政府主导、企业尽责、公众参与的协同机制。政府需优化职能配置与监管信息共享,企业协会牵头制定数据分级分类、风险识别等实操标准,企业则应加大安全技术研发投入,在公众层面需强化安全意识培育,通过AI风险举报平台构建全民监督网络,让公众成为治理的“千里眼”。

治理方式上,应摒弃单向行政监管模式,践行技术治技术、产业促治理的思路。建立精细化训练数据分级制度,如医疗数据需区分基本信息、病史记录、基因数据,明确不同级别数据的使用权限与存储规范;数据跨境监管推行白名单+黑名单模式,普通数据经安全评估可出境,敏感数据禁止出境,兼顾安全与国际合作。同时,要破解数据垄断,通过公共数据共享平台保障中小企业合规数据获取,以反垄断培育健康产业生态;国际上则倡导技术普惠,反对技术脱钩与单边制裁,为我国AI企业拓展发展空间。

治理依据方面,需实现硬软互补。硬法层面应在充分调研后出台高位阶《人工智能法》,明确AI法律属性、管理体制与责任划分,解决生成内容版权归属等争议问题,同时,针对自动驾驶、深度合成等特定高风险场景,制定专门法规,实现场景化精细治理。软法层面需强化伦理准则的实操性,依托行业协会制定的各类生成式人工智能行业伦理准则,应避免空泛表述。企业必须建立伦理审查委员会,对上线模型开展风险评估,涉及公众利益的应用需公开审查结果。此外,要将严重违反伦理的企业纳入失信名单,以市场准入限制强化约束效力。

生成式人工智能是推动发展的引擎还是威胁安全的隐患,关键在于规范治理方向而非限制技术本身的发展。以总体国家安全观为指引,将安全理念嵌入技术研发、产业发展、应用推广全链条,才能确保技术向善、造福人类。

(作者单位:东南大学法学院)

相关内容

热门资讯

【就业】“乐业上海优+”行动进... “乐业上海优+”行动持续进行中!为了更好地帮助大家拓宽就业机会,提供更优质的公共就业服务举措,全市3...
田间用水高峰来了,提灌站管理员... 川观新闻记者 陈丽霏 摄影报道1月30日早晨,广汉市三水镇国防村,冬日的阳光洒向翠绿的麦田。小麦处于...
投资者提问:董秘你好!贵司自重... 投资者提问:董秘你好!贵司自重组方案公布后,股价每况愈下,与现有牛市截然相反,请问董秘:1贵司有维稳...
投资者提问:今年会分红嘛 投资者提问:今年会分红嘛董秘回答(*ST中地SZ000736):我们会参照会计准则及章程规定执行,谢...
中国银行业协会发布《金融机构个... 为规范会员单位和外部催收机构对信用卡及个人消费信贷催收行为,促进行业健康发展,中国银行业协会制定了《...