日期:2026-03-12
在人工智能(AI)技术深度渗透知识生产的背景下,人机协同的集体智慧涌现已然成为知识生产的新范式。《国务院关于深入实施“人工智能+”行动的意见》明确指出要加速探索 AI驱动的新型科研范式,推动哲学社会科学研究向人机协同模式转变。国际层面亦纷纷布局 AI驱动的科研创新。谷歌、斯坦福大学、上海人工智能实验室等则相继推出人机协同科学家(AI Co-Scientist)推动政策落地。学术创作作为知识生产的关键环节,日益呈现人机深度互动的特征。然而,规范学术行为的两大核心体系——著作权法与学术规范却呈现出显著的制度回应异步性。在著作权法保护方面,通过“文生图第一案”“《伴心》AI作品案”等司法实践,逐步确认了用户通过提示词设计和参数调整等行为所体现的智力贡献,承认 AI生成内容(AIGC)的可版权性,展现出适应技术革新的制度弹性。反观学术规范体系,则严格限制AI的参与范围与程度,将其深度介入类比于“枪手代写”,并依赖准确率存疑的 AIGC检测技术作为评判依据。这种规范导向的不一致,不仅使同一学术行为面临分裂评价,更引发了学术信任危机。因此,弥合制度张力、构建协同规制路径,已成为保障 AI时代学术创作健康发展的关键命题。
两大规范体系的制度张力
学术评价体系对 AI介入普遍采取防御姿态,其核心是试图通过严格限制来维系传统“作者—过程”链条的纯洁性。这种立场具体表现为两种刚性策略。其一是范围控制,明确划定 AI介入的禁区。多数高校和国内期刊明确禁止使用 AI生成论文的主体架构、核心观点、关键论证等部分,仅允许其在文献检索、格式排版等边缘环节提供辅助。其本质是将AI的深度介入等同于“代笔”,认为这会削弱学术训练的价值并挑战成果的原创性归属。其二是程度约束,尝试对 AI贡献度进行量化管控。部分机构设定了 AIGC内容的比例阈值,试图通过技术手段为 AI的参与程度划出明确红线,超出阈值即面临违规风险。程度约束中采用的 AIGC检测技术同时也是范围控制的关键支撑。然而,由于 AIGC检测工具的准确率与可靠性广受质疑、误判频发,两种策略所依赖的技术基础极其脆弱,不仅难以回应实践需要,更侵蚀学术共同体赖以存在的信任基础。
与学术规范的防御姿态形成鲜明对比,著作权法在司法实践中展现出更强的适应性与包容性。其法律逻辑演进的核心在于,将评判焦点从内容是否由 AI直接生成转向生成过程是否体现了充分的人类智力投入。我国司法实践已逐步确立了一个关键原则:若使用者通过设计复杂的提示词、调整模型参数、进行多轮交互迭代以及对生成结果进行批判性筛选与优化等一系列行为,能够体现其个性化的判断与审美选择,则该过程可被认定为著作权法意义上的创作行为。司法实践的这一转向,实质上认可了人机协作作为一种新型创作模式的合法性。当著作权法已为人类在人机协作及由此产生的学术成果“正名”时,学术规范的严格限制便显得格格不入,形成了显著的制度张力。
规范层面的对立直接导致了研究者在学术实践中可能存在风险。同一项深度利用 AI开展研究的行为,在投稿时可能因 AIGC率超标或被检测工具误判而面临退稿、撤稿,甚至是学术不端指控;但在遭遇版权侵权时,其生成的内容却可能因体现了作者的智力投入而受到著作权法的保护。这种“一行为、两评价”的分裂局面,将让研究者无所适从,为学术创新带来了不确定的制度环境。
路径依赖与范式转型的冲突
学术规范与著作权法对同一问题表现出不同导向的深层原因,在于学术共同体对传统知识生产范式的路径依赖与 AI技术引发的范式革命之间的冲突。传统知识生产范式以个人涌现式为核心,即学术成果的创新性与质量高度依赖于研究者个体的认知活动与思辨过程。在此范式下,作者身份与研究过程紧密绑定。作者不仅是权利的起点,也是学术责任的终点。学术规范作为此范式的制度载体,其设计逻辑天然倾向于维护人类作者的单一主体中心地位,构建起以“作者—过程”锁定为核心的责任追溯机制。
AI的深度介入打破了这一传统逻辑,也带来一系列新型学术风险。其基于人类反馈的强化学习形成的带有倾向性的结果,容易强化研究者已有的偏见,放大认知偏误,从而抑制学术研究应有的批判性与客观性;技术固有的“幻觉”问题可能污染学术证据链,动摇研究的立论根基;“算法黑箱”特性则使得研究者难以对人工智能生成的成果实现完全控制与合理解释。传统学术伦理中以人类作者为预设的责任认定体系出现灰色地带,学术信任赖以维系的“作者—过程”链条受到冲击。
正因如此,学术规范体系对 AI的介入表现出显著的制度敏感。其当前的审慎立场与防御性策略,反映出学术共同体对传统知识生产范式的路径依赖,试图在技术冲击下维系原有体系的制度稳定与逻辑自洽。如有论者主张,应进一步强化披露义务,将故意去除人工智能标识以使他人误认成果纯属人类创作的行为,不仅界定为学术不端,更应视作违法行为。然而,学术规范的制定不可因噎废食。随着知识生产范式向人机协同转型,研究者的核心贡献正逐步向问题定义、提示词设计、成果批判性筛选与整合等上游环节集中。若学术规范体系仍固守陈规,将 AI严格排除在核心创作环节之外,则不仅难以有效回应技术发展的现实需求,也可能在维护传统秩序的同时,不自觉地抑制研究效率与创新潜力。
构建负责任创新的协同规制体系
为调适著作权法与学术规范对 AI辅助学术创作的评价,应当在明确学术规范的价值取向与著作权立法目的都旨在推动知识生产高质量发展的基础上,以负责任创新为核心理念,从评价标准、责任机制以及评审模式三个维度,推动二者协同演进。
首先,要以非歧视和人类智力贡献原则重构评价标准。一方面,要平等对待人类独立创作与人机协同成果,不以创作模式预设学术价值高低。另一方面,将评价重心从是否由人撰写转向人类是否投入了不可替代的智力贡献。应重点评估研究者提出问题、设计提示词以及批判性筛选 AI输出的能力,并将这些能力纳入学术评价与素养培养体系。
其次,应完善基于透明度的责任机制。责任追溯的关键在于透明度保障,需建立分层细化的披露机制,要求作者明确说明所使用的 AI工具、具体介入环节以及人类审核加工情况。同时,将与 AI的实质性协作纳入作者贡献声明,使协作者可依此贡献署名。还应明确通讯作者和负责与AI协作的作者,对 AIGC负有与传统文本同等的解释与更正义务,以实现权责一致。对于“应披露而未披露”或“无法合理解释 AI贡献”的行为,应界定为一种新型学术不端,其根本原因在于该行为违背学术诚信与透明度要求,阻碍了学术共同体对成果的评价,而非使用 AI介入创作本身。
最后,要推动评审模式向数智化评审转型。同行评审专家、期刊编辑、学位委员会成员需提升数智素养,能够辩证评估人机协作成果,识别AI生成内容的真实可靠性。AIGC检测结果应作为要求作者进行说明和解释成果内容的线索,而非直接作为拒稿或否决学位的依据。学术机构应探索在安全合规的前提下,利用 AI工具辅助评审工作,提升评审效率与质量,但评审责任仍由人类专家承担。
接受 AI的深度介入并非意在取代人类作者,而是通过使其承担记忆性、重复性工作,将研究者从繁琐劳动中解放,从而更专注于价值判断、伦理反思与原创性洞见。面对人机协同不可逆转的趋势,著作权法与学术规范不应割裂对立,而应以促进知识生产高质量发展为共同目标,携手构建一套鼓励负责任创新的弹性规制体系。这既是保障学术诚信与活力的基石,也是推动学术研究在智能时代迸发更大创新效能的制度保障。(作者单位分别为:厦门大学知识产权研究院,中国矿业大学人文学院)
作者:郭清鑫、王轩
来源:中国知识产权资讯网
|责编:牟研