半月谈评论员 孙文豪
国家互联网信息办公室等四部门近期联合发布《人工智能生成合成内容标识办法》(下称《办法》),并同步出台配套强制性国家标准。小小标识,为何得到国家多部门重视,又将如何改变人们所处的网络内容环境?
标识小,作用大
接到“领导”视频电话要求紧急转账20万;社会名人被AI配音后刷屏社交平台;“顶流明星在澳门输了10亿”的假新闻实则为AI捏造……在AI技术为内容合成带来便利的同时,其“双刃剑”效应也逐渐凸显:金融诈骗、身份冒充、虚假新闻等问题时有发生,眼见不一定为实,有图、有视频也不一定有真相。
“借助AI手段炮制虚假信息正催发公众的‘信任危机’,并对正规的内容创作生态造成冲击。”中国社会科学院大学互联网法治研究中心主任刘晓春对半月谈记者说,相关不法行为往往只需要极低的制作成本和违规成本。除虚假信息外,由AI导致的数据安全、隐私保护等与用户直接相关的问题,也需要强有力的监管措施介入。
2022年以来,我国已陆续出台多部法律法规对AI生成内容作出约束。但业内人士认为,此前出台的相关法律法规在内容识别上的要求较为宽泛,而《办法》将推动AI内容的标识从“原则性规定”走向“操作性规范”。
让人工智能技术“可信赖”
“《办法》重点解决‘哪些是生成的’‘谁生成的’‘从哪里生成的’等问题。”国家网信办有关负责人表示,要通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,让人工智能技术“可信赖”。
刘晓春等受访专家认为,《办法》聚焦人工智能“生成合成内容标识”关键点,提出具体操作规范:
——构建信任机制。《办法》要求AI生成内容添加显式标识(文字、声音提示)和隐式标识(元数据嵌入)。前者是在AI生成内容中,通过添加显式标识,让用户一眼可知“哪些是生成的”;后者则为厘清内容是“谁生成的”“从哪里生成的”。
——厘清责任主体。《办法》针对不同主体,着力构建全链条责任机制:用户发布生成内容需主动声明;社交平台等互联网应用需审核AI服务标识材料;服务提供者应当确保生成合成内容含有满足要求的显式标识,并在文件元数据中添加隐式标识等。
业内人士认为,《办法》主要从立法层面提出管理要求,与之配套的强制性国家标准主要提出具体实施方式和操作方法。例如规定元数据字段格式、标识显眼度阈值等,避免相关主体“凭感觉合规”。
拒绝“野蛮生产”,迎来“规范竞争”
“推动强制标识制度,与我国人工智能生成内容技术发展和应用阶段相匹配,是具有广泛社会共识和现阶段在技术上较为可行的方案。”刘晓春认为,提升人工智能生成内容的透明度和可追溯性,有助于增强公众信任感,推动行业从“野蛮生长”转向“规范竞争”。
国家网信办有关负责人表示,“统筹发展和安全”是《办法》的总体思路之一,这一治理理念体现在诸多实施细则上。例如一些大型企业和主要的AI服务提供商履行“标识义务”已有一段时间,但一些中小企业、传统企业等或将需要技术调整的过程,面临标识技术投入压力。为此,《办法》创新提出文本符号标识等低成本标识方法。
据了解,《办法》将从9月1日开始实施。刘晓春认为,其间几个月的施行过渡期,既是为企业理解规范、针对性地开展功能研发预留时间,也为提升用户认知和公众AI素养提供窗口期。“‘人的因素’应融入人工智能标识管理的全过程。”公安部第三研究所副所长金波认为,要着重提升公众对信息内容真实性、来源可追溯性的评估能力。
上一篇:以练为战 以演促防