炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:上游新闻)
随着生成式人工智能AI的诞生和普及,AI迅速融入人们学习、工作、生活的各个领域。短短数年前,人类还在嘲笑AI不过是“人工智障”,如今却亲手打开了潘多拉魔盒——有人自然而然把它当作生产力工具,有人却像是得到了一把趁手且可以为所欲为的武器,AI“一键脱衣”,直播间骗局升级,AI拟声制造“熟人骗局”等乱象层出不穷。深度伪造、数据滥用、版权侵权等技术滥用,令用户和网民的合法权益受到侵害,正常的信息传播秩序和市场秩序受到挑战。
互联网上,很少有人可以过一种“AI含量为零”的生活。打开搜索引擎,跳转后最先出现的是对搜索词条的AI总结;刷短视频时,营销号为了规避版权问题,在原创视频中间不断地插入AI制作的动画和语音,一个完整流畅的画面故事被切成几段;购物平台上,AI生成的商品图和实物图放在一起,难辨真假。当AI成为“标配”,人类何以“适配”?
图灵奖得主辛顿曾在演讲中提出,要对AI保持足够的警觉。他把人类与AI的关系,比作饲养一只老虎,老虎长大后可能轻易超越人类,而且人类没有摆脱和消除它的选项,人类想要生存,必须找到办法训练AI。AI是生产力工具还是伤人的武器,就目前来看,关键在于使用者的主体意图。就像有网友调侃的那样:“缺德的不是AI,是人。”所以,训练AI,提升“适配”能力,重在“管好人”。
“管好人”离不开平台的守土有责。作为传播媒介,平台可谓第一看门人。今年9月1日起,由国家互联网信息办公室等制定的《人工智能生成合成内容标识办法》开始施行,要求所有AI生成的文字、图片、视频等内容“亮明身份”,即添加标识以明确其来源和真实性。在明确AI生成内容的标识责任上,可实行“内容生产者为首责、平台把关、第三方可核验”的分层机制:上传者先自声明与嵌入水印;平台在分发前进行自动识别与抽检复核,对未标注或疑似不实的内容,要求强制补标或限流下架;行业协会与权利人可通过取证接口进行外部核验。让AI生成内容“可见、可检、可追”,进一步整治AI生成内容相关的违法行为。
“管好人”也离不开法治的保障。AI滥用乱象的直接制作者无疑是首要责任人,应当对其违法行为承担法律责任。如其行为侵犯他人民事权益,还需承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。AI深度伪造信息在网络平台上传播的,平台经营者未尽到合理的审核、监管义务。明知是深度伪造信息仍进行转发、传播的用户,根据其主观状态和具体行为,可能构成共同侵权,承担相应法律责任。面对AI深度伪造技术的发展,及时跟进创新法规制度,明确深度伪造行为的定性、量刑标准,细化相关罪名的适用情形,填补现有法律空白。只有形成条理清晰的法律法规,才能有效遏制AI滥用犯罪的滋生蔓延,守护公众的合法权益。
“管好人”需要对开源模型应用设置合规义务与责任。AI伦理实际上是人的伦理,既包括使用者,也包括设计者。应明确禁止将人工智能技术用于高风险、高危害场景,例如利用深度伪造技术实施诈骗或诽谤、生成传播色情暴力内容、批量伪造学术论文或考试答案,以及针对未成年人进行诱导性营销或行为操控等。让AI伦理转化为可量化、可执行、可验证的技术标准与制度安排。设定技术底线,让作恶的成本远高于守规的成本,才能将作恶者挡在整个生态之外。
人类与AI“共生”的“适配”过程让我想起《黑客帝国》中的经典场景:反叛军领袖默菲斯向主角尼欧提供了红色药丸和蓝色药丸:选择红药丸,就能从虚拟世界里醒过来,虽获得自由,但得面对残酷的真实世界;选择蓝药丸,就能继续活在舒适的梦里,忘记一切。在电影中,尼欧吞下了红色药丸,完成了“苏醒”。现实中,人类也不能对AI私人定制的蓝药丸上瘾。监管、平台与用户联动共治,通过技术、法律、准入标准制定,共同筑牢防线,避免对AI的过度依赖,防止违法滥用,与AI良性互动,不断实现“适配”。
上游新闻评论员 康磊
下一篇:美国一飞机坠毁,造成7人死亡