放纵AI工具的天马行空,必将以人文伦理底线的丧失为代价
正视人工智能时代的学术伦理
张宝明
若任由历史研究被数据、智能与技术路径的单一逻辑所主导,历史学的解释能力与存在意义势必随之削弱。
回溯人类学术科研发展进程,每一次具有颠覆性意义的技术突破,都伴随着新的学术伦理问题出现。人类学术研究史,本身就是一部技术不断突破既有界限与伦理规范跟进调适的历史。倘若说克隆技术与基因编辑技术主要冲击自然科学领域既有的科研伦理,那么人工智能所带来的挑战则跨越所有学科领域,重塑学术研究的伦理边界。从当前史学研究的学术生态来看,研究者对智能工具的过度依赖,并由此滋生的指令化与程式化研究倾向,以及不加甄别、误用人工智能结果引发的学术不端,正日益凸显人工智能时代学术伦理的重要性。更有甚者,将人工智能时代坚守人文价值与史学研究传统贬斥为“废话”“灌水”。如何坚守人文主体性,实现人与智能工具的双向赋能,以及如何明晰人工智能介入学术研究的合理边界,防范学术研究陷入伦理困境,是必须直面并回应的时代命题。
人工智能时代的“知识陷阱”
从知识史的视角看,工具形态的变革始终深刻塑造着知识生产与传播方式。蒸汽时代,廉价印刷与交通条件的改善推动书籍流通与学术会议的普及;航空时代,小型国际研讨会蓬勃兴起;互联网时代则通过电子邮件、在线会议等形式搭建“看不见的学院”。人工智能的崛起不仅加速知识传播,更直接介入知识的筛选、整合与生成过程,使研究者越来越多地面对一种“已被处理过的知识”。
人工智能的广泛应用,深刻改变了知识生成、呈现与理解的方式,催生出一种新的“知识陷阱”。所谓人工智能时代的“知识陷阱”,并非单纯指知识内容的虚假或错误,而是指在高度自动化与去语境化的知识生产过程中,研究者在形式上获得更多信息与“知识”,在实质上却逐步丧失对知识来源和概念边界的把握能力。当研究者误以为“可得”“可用”“可整合”的信息即等同于“已理解”“已掌握”的知识时,陷阱便悄然形成。
人工智能时代的“知识陷阱”不在于“知识太少”,而在于“知识过于顺手”。生成式人工智能通过概率模型与模式匹配,将海量材料快速组织为逻辑连贯、语言流畅的文本,这种具有高度可读性的输出,极易掩盖其生成过程中的不确定性,如对语境和价值观的无视。研究者若直接在此基础上进行引用与解释,便可能在未充分理解材料来龙去脉的情况下,接受并使用“看似可靠”的结论。
历史学尤能体现这一“知识陷阱”的危险性。史料并非中性的信息集合,而是嵌入特定时代、制度与话语结构的历史产物。传统史学训练强调对史料来源、成书背景、文本层累与作者立场的细致辨析,其目的正是防止研究者被表层信息所误导。进入人工智能时代后,史料在被拆解、重组并转化为数据单元的过程中,其原有的复杂性往往被技术流程所遮蔽。在这一过程中,人工智能在无形中重塑研究者与史料的关系。当研究者越来越依赖人工智能完成史料检索、摘要生成乃至叙事表达时,其与原始材料的直接接触被不断压缩,史学研究的“细读”“反复比对”与“问题导向”可能被技术流程所替代。
更为重要的是,历史知识本身包含大量难以被形式化处理的内容。正如德国哲学家威廉·文德尔班所言:“在一切历史上的和个别的经验事项中永远留下一个不可理解的剩余物——一个不可言传、无法界说的东西。”这些“不可言传”的部分,往往体现在语境判断、价值权衡与历史想象之中,是历史研究不可或缺的组成部分,相关研究将其概括为“非命题性知识”或“默会知识”。以符号处理与逻辑分析为优势的人工智能,在处理此类知识时存在天然局限。
人工智能时代的“知识陷阱”本质上是一种结构性风险:知识在技术处理中不断被抽象、压缩与重组,研究者若未能同步强化对生成机制的反思,便可能在“知识看似充分”的状态下做出贫乏甚至错误的解释。当生成式人工智能所制造的“知识幻觉”与研究者的解释责任发生错位时,史学研究的严谨性与可信度将面临系统性挑战。
人工智能时代的史学伦理困境
人工智能赋能史学也是一场改变学术秩序的伦理实践。在人工智能深度介入史学研究的背景下,伦理问题不再只是技术使用是否规范的操作性问题,而是直接触及史学研究的主体性、责任归属与学术规范等根本问题。
第一,人工智能时代的史学伦理困境,集中体现为研究者主体性的弱化与责任边界的模糊。生成式人工智能并不拥有真实的历史经验,也不具备价值判断能力,但可以基于海量语料生成逻辑自洽、语言流畅的文本。这种“形式上合理”的输出,极易掩盖其缺乏理解与判断的事实。当研究者在文献综述、问题设定甚至解释框架建构时高度依赖人工智能,历史解释逐渐从“与史料的对话”转变为“对算法输出的再加工”,研究主体在历史解释过程中的地位随之被削弱。
这一变化直接引发史学伦理的核心问题:当解释不再完全出自研究者自身时,谁应当为历史解释的正确性与价值取向负责?如果一篇论文的核心论点是在人工智能辅助甚至主导下形成的,那么解释失误、价值偏差,究竟应由研究者承担,还是应追溯至算法设计者与数据提供者?在现有学术规范中,这一责任划分尚无清晰答案,而责任主体的模糊,正是学术伦理动摇的重要表征。
第二,生成式人工智能使学术原创性与学术不端问题呈现出新的复杂形态。传统意义上的剽窃,主要表现为对既有文本的直接挪用或改写,而生成式人工智能则通过对训练语料的统计学习与再组合,生成形式“全新”但思想结构高度相似的内容。这种介于“借鉴”与“剽窃”之间的灰色地带,使合理引用与学术不端的界限愈发模糊。研究者若借助人工智能对既有成果进行快速改写并公开发表,虽未必构成传统意义上的抄袭,但可能实质性侵蚀学术原创性的底线。
第三,人工智能在史学研究中可能放大既有偏见。话语内嵌世界观,包括偏见。用于训练人工智能模型的历史文本,本身往往嵌入特定时代、立场与权力结构,包含种族、性别、阶级与国家叙事等隐性偏见。算法在学习与生成过程中,不会主动识别和修正这些偏见,反而可能在高频使用中加以固化甚至强化。当偏见以“流畅叙事”和“技术中立”的面貌出现时,其影响往往更为隐蔽,也更难被研究者察觉。
此外,在学术评价层面,人工智能的介入进一步放大史学伦理困境。一是学术评价标准的失准与失效。现有评价体系难以准确区分研究者的创造性劳动与人工智能的技术贡献,审稿人很难判断一项研究在多大程度上依赖人工智能完成。人工智能能极大提升研究“效率”,导致学术产出爆炸式增长。在“不发表就灭亡”的压力下,评价体系可能更加倾向于用发表数量、引用率等量化指标来衡量学者,从而挤压那些需要长期深耕、与人工智能“效率”格格不入的扎实研究。二是侵蚀学术共同体的信任基础。当研究者无法确信一项成果是否主要由人类完成,当“是否由AI代笔”成为普遍怀疑,学术交流将从基于信任的讨论滑向基于防范的审查。长此以往,史学研究赖以维系的共同体精神与人才培养机制,均可能受到结构性冲击。
人工智能时代史学研究的伦理向度
面对人工智能深度介入史学研究所带来的伦理困境,历史学界既不能因噎废食、拒绝技术进步,也不能放任技术逻辑主导学术实践。人工智能介入史学研究已成为不可逆转的趋势,真正的问题不在于“是否使用人工智能”,而在于“在何种伦理框架下使用人工智能”。因此,史学研究亟须在价值层面与制度层面同步回应这一挑战,构建面向未来的伦理路径。
第一,应清醒认识人工智能的技术限度,不能把判断性与解释性工作外包给算法。合理使用人工智能的前提是我们不能过度依赖人工智能。人工智能可以在资料检索、信息整理与模式识别等环节显著提升效率,但历史解释本身涉及语境理解、价值判断与责任承担,不能被技术所替代。研究者在使用人工智能时,应对其输出保持审慎态度,将技术处理的数据结果重新还原为具体的人文实践,回到原始史料与历史语境中完成最终判断,避免因数据偏差导致结论失真。
第二,必须坚持人工智能的工具属性,防止被技术奴役。人工智能的“见识”本质上是工具的见识,而史学研究需要负责任的研究者在史料基础上形成价值判断。如果研究者在长期使用人工智能中逐渐迎合算法偏好、依赖技术路径,便可能在不知不觉中被技术规训,进而丧失独立的问题意识与方法自觉。史学工作者应以如履薄冰的态度,持续反思自身与技术的关系。
第三,应主动创设规范人工智能使用的学术伦理规则,以学科问题为核心,反向塑造技术路径,引导技术向善。无论是科研伦理教育,还是期刊、学会与资助机构层面的制度设计,都应对人工智能在史学研究中的使用方式作出明确规定。例如,在研究过程中引入人工智能工具,应当进行必要披露;对关键史实、核心论断,应坚持人工核验。通过价值嵌入、技术留痕与可追溯机制,提高学术研究的透明度与可问责性,是防范伦理风险的现实路径。
第四,应坚守历史学的学科本位,积极构建面向未来的史学研究范式。从学科发展维度出发,或可将人工智能时代的历史研究区分为三个递进层次:常识性—阐释性—综合性。所谓常识性研究,主要指对历史基本事实、时间序列与知识体系的系统梳理与校勘,其核心任务在于夯实史学研究的事实基础;阐释性研究则进一步超越事实陈述,着力于在具体历史语境中解释历史事件的因果关系、内在逻辑与意义结构,对历史规律给出具有说服力的学术阐释;综合性研究提出更高要求,不再局限于单一学科的解释框架,而是有意识地打破既有知识边界,整合不同学科的视角与方法,形成能够回应复杂历史问题的理论建构与研究范式。人工智能驱动的史学研究,不应停留于对既有史料与数据的机械整合,应服务更高层次的解释性与综合性学术目标。
人工智能赋能历史学,归根结底关涉的是人类如何认识和使用知识的问题。技术本身并非问题,关键在于人类是否仍然掌握判断与解释的主动权。如果人类在知识与技术的积累中陷入“越多越好”的错觉,放弃了对判断、责任与价值的自觉,便可能迷失方向。马克思对19世纪工业革命的深刻剖析,至今依然振聋发聩:“技术的胜利,似乎是以道德的败坏为代价换来的。随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身的卑劣行为的奴隶。甚至科学的纯洁光辉仿佛也只能在愚昧无知的黑暗背景上闪耀。我们的一切发明和进步,似乎结果是使物质力量成为有智慧的生命,而人的生命则化为愚钝的物质力量。”
历史学是知识传承、创新与书写的核心载体,在智能工具的强力赋能面前,不可忘却自身与生俱来的学术使命与人文担当,其学术合法性与公共意义,建立在对意义、价值与责任的持续反思之上。若任由历史研究被数据、智能与技术路径的单一逻辑所主导,历史学的解释能力与存在意义势必随之削弱。放纵工具的天马行空本身就是对学术的亵渎,必将以人文伦理底线的丧失为代价。无论数智化工具怎样迭代更新,承载道义的人文研究必然会以坚韧不拔之意志傲然立于潮头。
作者单位:河南大学历史文化学院
微信扫一扫,进入读者交流群
本文内容仅为作者个人观点,不代表网站立场。
请支持独立网站红色文化网,转载请注明文章链接----- //m.syxtk.com/wzzx/llyd/wh/2026-05-16/98643.html-红色文化网