首页    剑桥资讯    如何看待人工智能与学术研究?——一份剑桥学者宣言
创建时间:2024-04-02 00:00

如何看待人工智能与学术研究?——一份剑桥学者宣言

剑桥大学人文与社会科学学院艾拉·麦克弗森博士与马太·坎代亚教授写到,撇开一切关于生成式人工智能的炒作,该文章(宣言或原则书)为学者及学生提供了一个框架,用以厘清生成式人工智能是否(而不是如何)真正有益于他们的研究。
 

这份研究警示我们目前岌岌可危的正是我们的教育价值观。

 

 

 

 

引言
 

生成式人工智能(AI)在疫情期间席卷了高等教育界,那时新冠带来的生活及工作上的不幸和需求还在继续,也面临着巨大的工作量。它的出现并没有受到来自暴利行业的引导或资源的影响。

 

比如,ChatGPT官网上挂着题为“教育者常见问题”的8条问题链接,ChatGPT通过该链接邀请教育从业者无偿提供想法,探索出AI技术如何能够“帮助教育者和学生”。“有很多办法能得到答案,但最佳答案将会来自教育界。”

 

尽管如此,教学和教学辅助人员仍在努力花时间仔细考量生成式AI对我们教学和研究的影响,以及如何应对这些影响。

 

比如在教学方面,一些同行担心生成式AI可能会助长学术剽窃,但同时也很看好生成式AI在处理相对低级的工作方面的前景,比如加快基础的计算机编码,从而为更高级的思考留出空间。

 

在研究方面,我们被推销各种技术方案以加快关键研究过程,例如总结阅读材料、撰写文献综述、进行主题分析、数据可视化、写作、编辑、引用参考文献和同行评审。

 

有时,这些生成式AI的功能会在我们已使用的工具中弹出,就像定性分析软件ATLAS.ti推出的“AI Coding Beta”,该功能是“世界上首个用于定性研究的AI解决方案”,“为您节省了大量时间”。

 

省时——提效——这当然很好。但是效率并不总是,或者说并不常常是推动学术研究的关键标准。评估生成式AI对主流价值观的影响是了解其是否以及如何应用于教学、学习与研究的唯一办法。

 

 

0生成式AI与学术研究的核心价值观
 

我们常听说学术卓越是学术研究的核心价值观。使用生成式AI来促进知识的产生是符合该核心价值观的,但只有在不危及到激发我们教学、学习及研究动力的其他价值观时,才有效果。 

 

如下所说,所谓其他价值观包括教育、伦理以及尤里卡时刻。我们必须详细讲讲这些其他价值观,由此才能对生成式AI如何能对学术研究产生潜在影响有全面的了解。

 

教育

Education

 
教育是学术研究的核心。作为学生及学者,了解如何进行学术研究与学术研究是什么同样重要,但这总是被人忽视。在课程设置中,方法论往往不如实质课题受到重视,教学和学习往往更侧重于理论,而非理论的产生过程以及过程铸就研究结果的方式。 

 

这种关注点的错位意味着我们一直不能及时发现使用生成式AI带来的问题,那就是它可能会让我们错失机会,没有办法学习以及展示进行学术研究所必须的关键技能。 

 

“在做中学”的教学法不仅适用于学生,同样适用于学术有成的学者。这个方法通常很慢、让人困惑不解、充满错误以及低效,但是对于创造出新的学术研究成果以及培养新一代学者来说是必要的。

 

尽管生成式AI的确在某些方面能够辅助学术研究,我们必须保证自己充分理解并且有能力完成生成式AI能够首先取代的研究过程,比如说总结与整合文本内容,创建参考文献目录,分析数据以及构建论据。

 

如果我们使用生成式AI,我们还需要思考它是如何影响获得教育的平等性的。一方面,有支付能力的使用者可以通过付费获得更强大的工具。另一方面,教育专家正在研究生成式AI辅助残疾学生的潜能。虽然过去的经验告诉我们不经三思就在课堂中使用AI,如抄写笔记,会产生严重的负面影响。

 

伦理

Ethics

 

生成式AI最初的魅力也分散了我们的注意力,使我们没有注意到在研究中使用生成式AI所涉及的复杂伦理问题,包括生成式AI从知识领域和人类环境提取内容的天性,以及生成式AI对重要研究价值观的负面影响,比如同理心、诚信和效度。 

 

这些问题适用于研究伦理中更宽广的架构,即必须追求利益最大化和伤害最小化。

 

我们更需要明白的是,许多大型语言模型的训练并没有得到允许或承认,而这些训练素材则来源于许多知识行业富有创造力和表现力的出色作品,包括艺术、文学、新闻业及学术界。 

 

考虑到人文社科树大根深的引用文化规范——这种规范认可他人观点,展示观点之间的联系,并支持读者理解我们写作的背景——依赖于不会标注作品引用出处的研究和写作工具是令人不适的虚伪行为。 

 

可持续性正逐渐成为大学和研究的核心价值观。使用生成式AI意味着使用云数据中心,也就是在使用稀缺的淡水资源并同时排放二氧化碳。 

 

与ChatGPT进行十到五十个来回的一段普通对话就需要半升水来冷却服务器,而要求一个大型生成式AI模型为您创建一幅图像所需的能量相当于将您的智能手机充至满电。我们很难忽略这些环境后果,这也让我们意识到在使用生成式AI以完成我们自己能做的工作时应当停下来想一想。

 

研究伦理关乎以同理心进行研究,关乎追求效度,即产出充分体现实证世界的研究内容,这同时关乎学术诚信,即学术诚实和学术透明性。生成式AI让这一切复杂化了。

 

同理心通常是通过接近研究数据和与我们的研究对象以及利益相关者拉近关系而产生的。生成式AI作为这中间的机器干预了我们建立和表达同理心的机会。 

 

生成式AI的黑盒属性可能会干扰研究的效度,因为我们无法确切知道它是如何从数据中识别出符合主题的代码,也无法了解它是如何在写作中产出观点的——更不用说生成式AI产出的这些观点和所作的引用可能都是杜撰的。 

 

黑盒属性还给学术透明性带来了问题,因此也影响了学术诚信;至少,保持研究诚信意味着要诚实地说明我们如何以及何时使用了生成式AI。学术机构目前正在制定用于承认使用AI的模式声明和说明。

 

此外,我们必须认识到生成式AI可能是在精华数据集中进行训练的,因此它会排除边缘化的观点并再创知识的等级制度,同时也会重现这些数据中固有的偏见——这引发了关于使用它所产生的伤害是否会持续存在的问题。 

 

与所有新技术一样,伦理框架正在迎头赶上对新领域的研究实践。在这段空白期内,遵循互联网研究者的建议是明智的:跟随你的直觉(如果感觉不对,那它可能确实有问题),并与你的研究伙伴和同事进行讨论、商榷和辩论。

 

尤里卡时刻
Eurekas
 
生成式AI不仅会挑战我们的教育与伦理,还会威胁到我们的情感。作为学术研究者,我们不会过多谈论研究与写作给我们带来的感受,但这些情感正是激发我们做学术的动力,是这份工作给予的嘉奖。 

 

想象一下,当一堆巧妙但杂乱的定性数据逐渐有序形成理论时的那一刻,或者在实验室里发现数据证实了假设的那一瞬间,或者当一个用来解决问题的原型成功运作的时候,又或者当与同事一起午餐时突然涌现出的灵感。 

 

跟着找到这些数据的尤里卡时刻而来的,是写作中的尤里卡时刻,这些“瞬间”的感受也许在人文社科中具有特殊的意义(对于我们的一些同事来说,写作实际上是方法论的一部分):通过书写形成一个论点所带来的满足感,用一句话准确描述实证世界的兴奋感,以及文字游戏带来的书呆子般的自豪感。当然,轮番去感受这些巨大的快乐是很痛苦的,它们往往互相依存。 

 

关键在于,这些学术研究带来的情感是学术研究中人性和满足感的核心所在。如果以符合伦理道德地方式使用生成式AI,它可以为我们创造追求这些情感的空间,从而创造知识。

 

但是,生成式AI也可以使我们对研究和写作的情感流失殆尽,把我们的作用瓜分成更狭隘和更机械式的检查和编辑工作。而且这种事情可以在毫不察觉的情况下发生,光鲜亮丽的效率承诺正逐渐蚕食这些尤里卡时刻。

 

当然这种疏远的过程在将科技引入到工作中时也发生过,工人们一直在抵制这种情况,从19世纪英国纺织工人到如今的亚马逊仓库工人。像卢德派一样,当代运动经常因为抵制变革而受到批评,但这种批评忽略了关键点。像我们谈论的这个情况,这些拒绝和抵制运动的核心在于让我们注意到在技术进步中失去了什么。

 

 

02 胡萝卜激励法
 

在科技行业势如破竹般地不断使用新科技的背景之下,我们认为学术界应当冷静下来,花时间思考我们是否应该在学术研究中使用生成式AI,而非思考何时使用或如何使用。

 

与其被学术不端的威胁所逼迫,对于生成式AI和学术研究的判断应该由我们的价值观所驱动。

 

我们以人类的方式进行学术研究是要保护哪些美好而重要的价值观呢?我们提升教育;保护知识行业,研究对象和原则以及环境,并且我们为尤里卡时刻提供发挥的空间。 

 

生成式AI已经在学术研究界引发了一场知识论战。其突然的出现使我们习以为常的事物变质,并为我们提供了反思和更新价值观的机会——这些是我们决定是否以及如何将生成式AI纳入我们的教学、学习和研究的最佳衡量标准。

 

AI与学术研究的五大关键原则 #
 

鉴于上文所述,我们提倡关于AI的以下五大关键原则:

 

N0.1

思考它,谈论它。

 

AI已经存在了。它正在日益普及,深入到我们的日常应用程序中,并已经成为员工和学生工作流程的一部分。我们需要和同事及学生公开辩论和讨论AI的使用。虽然我们将从AI技术训练和持续了解人工智能不断发展的能力方面受益,但我们作为社会科学和人文学科的专家,在分析和讨论人工智能的风险和收益方面扮演着重要角色。我们需要让自己的声音被听见。

 

N0.2

我们的价值观是第一位的。

 

驱使我们进行教学、学习和研究的核心价值观必须引导和塑造我们使用的技术,而不是反过来被技术牵着走。我们需要特别关注写作和研究带来的乐趣,并确保AI的存在能够放大这些乐趣,而不是让我们失去这些乐趣。

 

N0.3

警惕AI伦理问题。

 

虽然在某些情况下可能被认为需要或确实不得不使用AI,但我们需要保持警惕,特别是要注意生成式AI在知识领域和环境之间的提取本质,以及它对重要研究价值观的负面影响,包括同理心、学术诚信和效度。使用AI根本没有不触及学术伦理的方式。

 

N0.4

接受变化并不意味着放弃我们所拥有的技能。

 

虽然人工智能似乎能够执行诸如总结和组织信息之类的任务,但这并不意味着我们再也不需要教授或评估这些技能。想要在一个满是AI的世界活下去,我们的学生也需要学会不靠它依然能完成这些工作。这意味着,尽管我们很可能会在各种各样的教学和评估中与AI深入接触,但零-AI评估(如监考考试)很可能会继续是我们评估体系的核心部分。

 

N0.5

注意学科的多样性。

 

AI有很多形式。有些似乎相对无害,它们主要加快基础任务的速度。而另一些形式则削弱了学生学习的能力,或者引发了关于作者身份和真实性的深切担忧。该界限的确定将取决于不同的学科传统、不同的专业文化以及不同的教学和学习模式。各部门和学院必须拥有自主权以决定在研究、教学和学习中哪些人工智能的使用是可以接受的,哪些是不可以接受的。