某大学院系曾草拟一项反人工智能政策,如果按照字面意义执行,这份政策将会禁止教师布置与AI相关的作业。虽然这份政策最终被修改,但当一批知名校友和专家对该历史系进行外部评估时,他们的首要建议是:必须紧急应对AI对教学与研究所带来的冲击。然而,这一建议在校内遭到冷淡对待。继续维持现状的想法是行不通的。
现实中,翻天覆地的变革正在发生。但在校园内却是一段奇异的过渡期:每个人似乎都在假装过去一个世纪中最重大的思想革命并不存在。教育者们普遍采取的策略是:“禁止学生使用这些工具,然后一切照旧。”Burnett称这种做法“简直疯狂”,并表示,这种局面不会持续太久。现在是时候认真讨论AI将如何影响大学生活,特别是对人文学科的影响了。
尽管许多历史学家可能对这篇文章反感,但所强调的核心观点却值得肯定:生成式人工智能并非天然具有正面价值,但它已然对人文学科产生了颠覆性影响,这一点无法忽视,也不能被简单归类为炒作。
关于这种变革,目前的思考方式如下:
生成式AI提升了人文学科技能的价值
忽视人工智能对人文学科工作的影响,已越来越站不住脚。更重要的是,这种无视也是一种短视,因为人文学科的知识与技能正是AI语言模型的根基所在。
AI语言模型的语言翻译、归类与分析能力,将其视作“文字计算器”的运用方式,是当前模型最引人注目的功能之一。在古文字研究、数据挖掘与古语言翻译等领域中,这些能力才刚刚展现出影响力。虽然笔者此前已有较多相关论述,但当前的发展已经远超过去,因此暂不赘述。
近年来的另一个变化则更不易被察觉——那就是人文学科的技能在AI研究中本身变得异常关键。
以近期一个案例为例:OpenAI在修复GPT-4o近期“过度迎合用户”的问题时,所采取的首要措施并非编写新代码,而是重新撰写一段英文提示语。开发者Simon Willison指出,系统提示语的修改成为解决方案的一部分。
当然,这并非唯一因素。例如,“点赞”按钮优先采纳用户反馈等机制,也都涉及语言与行为之间的关系、跨文化差异,以及修辞、文体与语气等问题——这些都是宏观层面的人文学问题。
这一点令人惊讶。上世纪50年代,IBM主机系统出现故障时,或19世纪50年代蒸汽机爆炸时,维修人员根本不会考虑这些问题。
而今,从事AI系统开发的工程师,必须深入思考语言与文化之间的关系、科技的历史与哲学背景。若他们忽视这些问题,系统的功能甚至可能直接崩溃。
此外,人文学者如今也具备自己编写代码的能力。这一变化的意义,远超很多同领域学者的认识。未来的历史学者或许将理所当然地认为,他们可以自行开发研究与教学工具,并自由部署,而不必投入巨大成本。
目前的尝试主要集中在两个基于传统文字冒险游戏设计的教育项目上——受众较小,正是因此而成为理想实验对象。在兴趣驱动、内容熟悉的基础上,作者在代码方面虽非专家,但已积累了不少经验。
从去年秋季的第一次尝试,到今春第二款作品,这段经历堪称极具启发性的学习过程。
第一款游戏设定在17世纪墨西哥城,玩家扮演药剂师Maria de Lima,通过阅读真实的早期现代医疗配方,治疗历史人物改编而成的病患。这款游戏极具趣味,但也存在不少Bug和可用性问题,并容易出现偏离史实的“幻觉”内容。例如,有一次玩家扮演的Maria成为英国商船的外科医生,并在伦敦与艾萨克·牛顿喝茶相会。众所周知,牛顿性格孤僻且难以亲近,但在游戏中却热情招待了Maria。
第二款游戏较为稳定且复杂,设定为1835年加拉帕戈斯群岛,玩家扮演年轻的达尔文,采集雀鸟与其他动植物标本。岛屿地图依据达尔文《小猎犬号航行记》中的实际描写建立,从而迫使AI遵循“地面真实”,降低了虚构风险。
此外,游戏还引入了更完善的日志记录系统,为未来添加评估机制、实现课堂作业功能铺平道路。游戏玩法与课堂讨论和写作任务相结合,学生需先阅读达尔文文本,再通过游戏中的选择展示对其知识体系的掌握。要推进剧情,玩家必须具备19世纪博物学家的认知方式。
这类迭代开发过程,已成为近年来最富挑战性与思想激励的学习体验之一。那些认为AI互动无法带来学习效果的人,显然尚未亲自尝试。
生成式AI也让人文学教育更难以施教
然而,不容回避的现实是,AI聊天机器人正在显著破坏教育体系中的关键部分。教育者、学生、政策制定者,尤其是AI开发公司,必须正视这一问题。
教师们普遍指出,ChatGPT等工具改变了写作评估的方式:许多学生提交由AI生成的作文,迫使教师重新设计课程与作业内容。
更长期的伤害发生在学生身上。AI让“努力”成为可选项,从而危及了高等教育的核心价值。那些从未经历写作瓶颈的学生,也从未体验突破瓶颈时的思维流畅之感;从未在图书馆苦苦查找资料的人,实际上根本不理解图书馆的真正意义。
《纽约杂志》的一篇文章描绘了这种现象,一位哥伦比亚大学的学生坦言:
“大学里的大多数作业都不重要,”他说。“AI可以轻松完成这些任务,我根本没有兴趣做。”这位学生使用AI轻松应对繁重的课程,目标不是学习,而是寻找创业伙伴和未来的配偶。
这显然令人沮丧。
这削弱了教学的乐趣,也让教育本身失去了意义。
作者曾在哥伦比亚大学担任博士后讲师,教授包含《圣经》、《古兰经》与托马斯·阿奎那著作等十多部经典的核心课程。这些课程既不轻松,也不娱乐化,正因如此才格外具有学习价值。如今,那种经验似乎正在被摧毁。
但事情也不全是负面。Burnett在《纽约客》文章中提到,他要求学生与ChatGPT讨论“注意力”这一概念,并提交编辑后的结果。这一作业引发的学生反应令他极为震撼。
他在文中写道:
“坐在客厅沙发上阅读这些结果,是我教学生涯中最深刻的经历。我仿佛看见一种新生命的诞生,也看见一代人与这种‘生命’初次相遇:它既像兄弟,也像对手,既似天真孩童的神明,也像语言具象的幽影——一种陌生而熟悉的存在。”
类似的感受也出现在笔者的教学实践中,尤其是在尝试历史模拟作业的过程中。语言模型的确是一种全新的教学工具,其影响尚不确定,而这正是教育者应积极参与的最佳时机。
最大担忧在于,语言模型可能会加剧教育成果的不平等。Burnett所教的普林斯顿学生展现出惊人的创造力与思考能力,而资源匮乏的公立学校学生可能无法获得同样的学习体验。
因此,教师必须主动学习如何根据自身教学需求开发和部署AI作业与工具。若教育者放弃主动权,任由教育被千篇一律、乏味的“AI学习工具”主导,将最终摧毁学生与教师之间真正的互动关系,而这恰是教育的核心。
正是基于这种理念,笔者与加州大学圣克鲁兹分校两位同事——语言学家Pranav Anand与文学学者Zac Zimmer——于今年1月获得了一项美国国家人文基金会(NEH)资助,尽管该项目于上月被特朗普政府与DOGE机构取消,但相关工作仍在继续。