技术的重大变革往往都伴随着法律制度的进步,随着AI不断释放出巨大潜力,未来1—2年出现的变化是最终可能不得不承认AIGC的可版权性,但是权利归属机制仍待讨论。
文|王雅迪ID | BMR2004
随着近两年各高校不断明确要求毕业论文必须通过AIGC检测,AI使用率高于30%甚至20%将无法参加答辩,以知网为代表的学术平台正不断加强自身的检测能力。
不仅是学生群体正过度依赖AI写作,AI赋能教学和科研已是大势所趋。
包括美国康奈尔大学在内的联合团队于《科学》杂志发表最新研究证实,自ChatGPT向公众开放以来,大型语言模型显著提高了科研人员的论文产出率,但由此激增的平庸论文也为学术评价体系带来了新问题。
此外,原创性是学术研究的关键所在,当AI能批量产出符合格式规范的中庸论文,学术出版可能会被内容泡沫淹没,真正具有突破性但可能不完美的原创研究是否会被稀释,这都是值得思考的问题。
01
“人类作者中心主义”的两难
如果版权体系接受AIGC,承认其客体适格性和独创性,则严重挑战“人类作者中心主义”的传统价值观,激发人类被取代的焦虑。
传统《著作权法》及学术规范均认定“作者”为具有创造力的自然人,而AI的介入模糊了这一边界。
《著作权法》通过为创作者提供专有权利来保护其智力成果,从而激励创新活动。其核心在于平衡创作者权益与公共利益,确保作品的创作和传播能够促进文化和科学事业的发展。当过度依赖AI生成内容,不仅会降低人类创作者的创新活力,还可能使得学术研究陷入“AI陷阱”。
天津大学法学院副教授李春晖向《商学院》记者表示,最紧迫的挑战是人类作者面临的创作危机。如果AIGC能够创作出相当数量和品质的作品,人类作者则会因此遭遇生存危机。
正如李春晖所言,最根本的挑战是,如果版权体系接受AIGC,承认其客体适格性和独创性,则严重挑战“人类作者中心主义”的传统价值观,激发人类被取代的焦虑。而如果版权体系不接受AIGC,随着AI的发展,注定会出现难以区分AIGC的技术难题和隐瞒AI作者的道德风险。
李春晖认为,如果不接受AI的创作者地位和AIGC的作品属性,就应当证明研究者做出了独创性贡献,是作品的唯一作者。但是,这个唯一作者拥有著作权的客体究竟是什么仍然有疑问。是人与AI协作产生的作品的整体,还是要排除掉AI贡献的那一部分,这从技术上往往大部分情况下都难以实现。
李春晖进一步指出,如果接受AI与人可以成为共同作者。但权属是另一个问题,即AI创作的那一部分权利归属于谁,可以有的选项是AI开发者、AI所有者以及AI使用者。
目前,从AI开发者和所有者的业务模式来看,并没有拥有著作权的需求,因此大多数观点会倾向于归AI使用者所有。但也同样会带来学术伦理和道德风险,一些人可能将AIGC声称为自己创作的。这在《著作权法》上或许不会造成严重的后果,但是在学术评价体系中可能会产生问题。
02
原创性如何判定?
《著作权法》的调整方向不应是“削足适履”地套用传统规则,而是基于文理学科的研究范式差异,建立差异化的独创性判定与权利归属框架。
在学术评价体系中,随着AI的发展,学术不端行为已经不再是简单的搬运,各学科需要依据自身知识生产的核心价值,重塑原创性标准。
根据《科学》杂志发表的最新研究,研究团队收集了2018年1月至2024年6月发表在arXiv、bioRxiv和社会科学研究网(SSRN)3个主要预印本平台上的超过200万篇论文作为分析样本。
分析结果显示,使用AI写作的科研论文产量显著增长。在arXiv平台上,使用AI的科研论文发表量比未使用者高出约1/3,而在bioRxiv和SSRN上,这一增幅更是超过了50%。
浙江大学教育学院黄亚婷团队从2024年年初开始,分3次对国内大学生使用AI工具的情况进行了调研,调研对象包括20多所高校的3800多名本科生和4200多名硕博群体。调研发现,目前学生不当使用生成式人工智能的行为的确存在,且比例不低,也有部分学生表示“习惯于借助AI完成任务”,对AI产生了依赖。
在这种背景下,各高校在AI生成内容比例限制、规范适用阶段与对象等方面要求有所差异。其中,人文社科类论文一般要求AI生成内容占比不超过20%,理工医科类要求不超过15%。
工业和信息化部赛迪研究院人工智能与大数据研究中心常务副总经理邹德宝向《商学院》记者指出,理科研究者正在向AI训练与验证者的转型,核心矛盾在于“实验数据与结论的创造性边界”,文科研究者则向AI提示与综合评判者的转型,聚焦于“文本表达与思想整合的独创性归属”。两种角色转变的差异,本质上是由文理学科的研究范式、创作逻辑差异决定的。
在邹德宝看来,对理科而言,需要建立“AI贡献分层认定”规则,区分“人类主导的AI训练” 与“AI自主生成的成果”,明确验证行为的独创性权重。对文科而言,需要重构“思想贡献的表达转化”标准,将研究者的提示设计、综合评判纳入独创性范畴,平衡思想价值与表达形式的保护边界。最终,《著作权法》的调整方向不应是“削足适履”地套用传统规则,而是基于文理学科的研究范式差异,建立差异化的独创性判定与权利归属框架。
此外,研究者使用AI可能在不自知的情况下生成与他人已发表观点高度相似的文本,构成“非主观抄袭”,但《著作权法》难以归责。
据媒体报道,2025年年底,香港大学社会工作及社会行政学系一名博士生在学术期刊发表的论文,部分引述文献为AI虚构生成,港大社会科学学院副院长则是论文通讯作者。目前,港大已采取纪律处分及相应措施,该教师已卸任学院副院长及研究事务相关职务,并已向相关期刊申请撤稿,涉事博士生也须按大学既定纪律程序处理。
清华大学、浙江大学、北京师范大学等高校也出台了AIGC相关规定,要求使用AI需明确标注工具名称、版本、使用时间及用途,部分高校要求保留原始材料。AI使用标注需体现在正文、承诺书或检测报告中,确保AI应用可溯源。毕业论文的研究方案设计、数据分析、结论撰写、创新观点提炼、原始数据生成/改动等核心环节,则严禁使用AI。
《科学》杂志发表的最新研究发现,对于人类撰写的论文,语言的复杂性通常是衡量其学术质量的有效指标;但对于AI生成的论文,尽管其文字流畅度很高,却往往未能通过期刊评审的严格筛选,表明其科学价值并未获得认可。
03
AI训练阶段的合理使用问题
AI训练阶段对数据的使用,以及AIGC是否侵权,这是两个阶段的问题。
在研究过程中,AI未经许可使用受版权保护的训练数据,或者吞食的海量学术文献是否构成合理使用? AI生成的内容是否来源于受知识产权保护的材料或是否掺杂虚假信息?这值得格外注意。
邹德宝解释道,AI在理科领域的数据或方法使用风险更接近于“窃取生产资料”,其侵权认定侧重于未经许可复制受版权保护的具体数据集或商业秘密,路径相对直接但证据门槛高,可能导致严厉的禁令或高额赔偿。文科领域的风险更类似于“盗用创作灵魂”,其核心在于判断AI生成内容是否非法挪用了受保护的独创性表达,这涉及著作权中最复杂的“思想与表达二分法”,认定难度极大、主观性强,法律后果通常更侧重于对具体侵权输出的纠正而非对整个模型的制裁。
关于AI训练阶段的合理使用问题,李春晖指出,从历史解释、体系解释来看,《著作权法》所称的“复制权”,其实是指以传播为目的的复制。而 AI 训练阶段对数据的使用,以及AIGC是否侵权,这是两个阶段的问题,因为《著作权法》完全没有预料到这一种使用方式。
李春晖进一步表示,在《著作权法》规定下,AI训练使用数据的合法性之核心是复制权。AI训练著作权问题主要涉及准备训练数据时,不可避免的物理复制以及训练时读取数据过程中的临时复制。但AI训练数据的大规模性导致训练不可能短时间内完成,同时数据还需要预处理,数据复制状态的存留不一定“短暂”。因此有人认为,训练数据准备中的复制为永久复制,但临时复制更准确表达为“中间复制”,核心不是时间,而是复制的非最终性、非目的性。
据《民主与法制时报》2025年7月的报道,美国加州一法院对两起涉及AI大模型训练,使用未经授权的版权内容案件作出简易判决,认定“扫描合法购买的纸质书籍将其数字化后用于人工智能大模型训练”属于合理使用、“利用bt种子搜索引擎下载盗版图书用于人工智能大模型训练”属于合理使用、“从盗版网站下载数百万书籍构建自身永久性的数字图书馆”不构成合理使用等。这些裁判要点引发国内学界、业界广泛关注。
04
规则重塑,制度的革命
新的共识将不再聚焦于“是否用了AI”,而是转向“人类如何有意义地使用AI”。
2025 年毕业季期间,麦可思研究院发布的一份调查报告显示,对于学生使用 AI 写论文,21%的受访教师持支持态度,58%的教师表示视情况而定,46%的教师认为学生“过度依赖 AI 生成内容”。
在这个动态调整过程中,需要改变传统的学术评审规范。
邹德宝认为,新共识不会统一禁用AI,而是通过强制性技术披露与核心人类贡献声明相结合的混合模式,将原创性的核心从“从零创造”重新锚定为“自然人在人机协作中展现的独特意图、批判性掌控与意义赋予”。新的共识将不再聚焦于“是否用了AI”,而是转向“人类如何有意义地使用AI”。共识的达成将是一场持续的、基于学科特质的对话与实践调整过程。
在这个动态调整过程中,不仅需要改变传统的学术评审规范,也要直面革命性技术需要革命性制度的新变化,进行充分的利益衡量,基于价值取舍而重新立法/修法。
在学术评审中,邹德宝认为,未来的同行评审必将从偏重“结论正确性”的验证,转向对研究过程合理性与方法透明度的系统性评估,其核心是构建可审计、可重现的“证据链”。同时,这确实会催生新的专业评审角色(如研究诚信分析师或AI痕迹取证专家),他们利用专门工具分析数据模式、代码逻辑与文本特征,以识别潜在的AI生成内容、数据篡改或流程漏洞,从而在技术层面辅助验证研究的真实性与严谨性,使学术评议建立在更坚实的可验证基础之上。
在法律层面,李春晖认为,从现实主义出发,现行法律框架最需要做出的前提性改变,是解决如何区分人类创作和AIGC的问题。要么,法律上完全不区分AIGC,将AI视为使用者的工具,无论使用者参与多少,都视为使用者的作品;要么,则需要法律上设计一个机制区分AIGC,这可能是基于诚信的主动申报——隐瞒惩戒机制,也可能是“法律+技术”以确保发现AIGC的机制。
技术的重大变革往往都伴随着法律制度的进步,随着AI不断释放出巨大潜力。李春晖强调,未来1—2年出现的变化是最终可能不得不承认AIGC的可版权性,但是权利归属机制仍待讨论;同时,鉴于人类对AI的恐惧心理,训练数据的获取上可能反而变得并不自由,会出现针对AI训练的作品集体管理机制。
来源|《商学院》2&3月合刊