明确平台法律责任提升审核识别精度
创始人
2025-11-21 05:11:43

(来源:法治日报)

转自:法治日报

□ 本报记者     赵丽 □ 本报见习记者 丁一   近年来,生成式人工智能(AIGC)技术迅速发展。昔日需要整个团队协作完成的视频制作,如今仅凭一张图片、一句文字指令即可实现。然而,伴随技术普及而来的是滥用风险的加剧。纷杂的AI生成内容常常令人真假难辨,不仅干扰公众认知,对行业监管和平台治理也提出了新的挑战。   今年9月1日起,《人工智能生成合成内容标识办法》(以下简称《办法》)施行,意味着所有利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息,必须依法添加相应的声明标识。   然而在实际应用中,AI生成内容标注仍存在诸多难点。例如,用AI工具生成的视频,若用户有心将水印去除,平台往往难以有效识别其AI属性,导致大量未标识内容持续传播。   对此,《法治日报》记者采访西南政法大学公法研究中心执行主任杨尚东、中国农业大学法律系副教授薛铁成、中央财经大学法学院教授王叶刚以及北京航空航天大学法学院副教授王天凡,共同探讨应对之策。   记者:平台是内容传播和触达公众的关键环节,因此承担着监督和管理的重要责任。据观察,一些平台通常会在相关帖文上标注类似“疑似AI创作,请谨慎甄别”等提示。此类提示,是否足以认定平台已经尽到合理的注意义务?是否能使其自动免除法律责任?   王叶刚:不能据此当然认定平台已经尽到合理的注意义务。平台在性质上属于网络服务提供者,我国民法典侵权责任编对网络服务提供者的侵权责任具体规定了通知规则(避风港规则)、知道规则(红旗规则)。判断平台是否尽到了合理的注意义务,是否需要承担侵权责任,需要依据侵权责任编的规定进行判断,而不能以标注“疑似AI创作,请谨慎甄别”等提示语为由认定其尽到了注意义务。   王天凡:判断平台是否履行“合理注意义务”,需综合多方因素考量。比如,标识的显著性与有效性方面,提示语是否足够清晰、醒目,不易被忽略或裁剪;数字水印是否能抵抗压缩、剪辑等。防控措施方面,平台是否建立了与其技术能力和规模相匹配的、主动的侵权内容识别与过滤机制,以及在接到侵权通知后,平台是否能够迅速响应并采取删除、屏蔽等必要措施。另外,对于显而易见的、利用名人肖像进行虚假广告的深度伪造内容,法律对平台的“应知”要求会更严格。   记者:调查显示,很多AI生成内容引发的整蛊、造谣乱象,均是内容发布者有意为之,甚至故意绕开平台监管。对此,应如何加强管理?   薛铁成:必须明确,蓄意发布AI生成图片、视频整蛊甚至造谣的行为,可能涉嫌违法。若内容发布者明知其行为可能引发恐慌、报警、扰乱社会秩序,仍主动发布AI生成的图片、视频等误导性内容,其主观上可能构成谎报警情的间接故意,最终行为或被认定为报假警。根据治安管理处罚法相关规定,当事人将被处以行政处罚。若情节严重,还可能触犯刑法中的“编造、故意传播虚假信息罪”,须依法承担刑事责任。   加强对内容发布者的管理,要进一步压实平台责任。《办法》采用的是漏洞填补和责任加重的AI标识管理规则。在关涉AI生成内容发布的各个环节中,后一环节对前一环节负有检验和审核的责任。例如,提供网络信息内容传播服务平台发布AI生成内容时,既需要检验用户提供的AI生成内容是否有平台的隐式标识,还需要检验用户是否声明AI生成内容。如果均没有相关AI内容标识和声明,本平台检测到显式标识或者其他生成合成痕迹的,识别为疑似生成合成内容,也应当采取适当方式在发布内容周边添加显著的提示标识,提醒公众该内容疑似AI生成内容。   杨尚东:首先,平台应明确AI生成内容的管理规范。平台需制定清晰的AI生成内容管理规则,一方面强制要求用户对AI生成内容进行标注或主动声明;另一方面完善平台细则,针对恶意传播AI违规内容的视频及账号,依法依规采取提示、下架、封号等阶梯式处置措施。   其次,平台应加强AI生成内容的审核与标识。内容发布前,平台应升级审核机制,通过“技术检测+人工复核”的双重模式提升AI内容识别精度,精准筛选出可能扰乱社会秩序的内容及账号,并降低此类整蛊内容的传播权重。内容发布后,平台需在聊天、评论等交互环节,进一步强化AI生成内容的明确标识与风险提示,引导用户理性判断。   最后,平台应建立快速响应与事实核查机制。平台可搭建公众举报通道,及时发现审核疏漏的问题内容。针对可能扰乱公共秩序的信息,第一时间启动事实核查与应急响应,快速采取限流、删除等措施,防止内容扩散造成更大负面影响。   记者:针对AI生成内容标识的规范与治理,当前实践中还存在哪些核心问题,又该从哪些方面推进完善以保障落地效果?   薛铁成:当前相关法律制度仍缺乏AI服务提供平台和网络信息传播平台未履行AI标识义务的责任规定,难以建立对相关平台未履行AI标识义务的惩戒机制。在相关规定已经明确AI服务提供平台和网络信息传播平台在内容生成和发布环节义务的基础上,还应进一步明确其未履行义务的责任种类和承担责任的方式,以督促相关责任主体履行监管义务。   杨尚东:其一,健全AI生成内容管理的法规体系。未来,应在《办法》基础上进一步细化平台治理规范、明确政府监管职责、规范用户使用行为,强化法律执行效力,为生成、制作与传播合成内容的相关主体设定清晰的法律红线。   其二,构建跨部门协同监管机制。推动网信、公安等相关部门形成全链条监管合力,加强对生成式人工智能大模型的审核管理及其应用场景的监督,严格落实内容标识要求。同时,建立跨领域信息共享平台,提升监管联动能力与精准性,实现高效协同治理。   其三,强化网络空间法治宣传教育。借助各类媒体平台,向公众普及人工智能基础知识与AI生成内容的识别技巧,提升全民数字素养与技术认知水平。

相关内容

热门资讯

中信证券:2026年度造纸行业... 转自:财联社【中信证券:2026年度造纸行业预计底部改善 金属包装行业将迎来春天】财联社11月21日...
财联社汽车早报11月21日 转自:财联社两部门发布《新能源汽车政府采购需求标准(征求意见稿)》11月20日,财政部会同工业和信息...
四川阆中警方凌晨通报 转自:北京日报客户端11月21日凌晨,四川省阆中市公安局发布“警情通报”:11月20日,阆中市一学生...
@近视的你 当心甜食正在悄悄损... 来源:央视新闻客户端 用眼过度、强光刺激……这些常见的视力“杀手”相信大家都不陌生但日常生活中有一个...
直击车展 | MoLA架构发布...   Hehson科技讯 11 月 21日上午消息,在华为乾崑生态大会上,华为智能汽车解决方案 BU ...