对论文《AI assistance reduces persistence and hurts independent performance》的思考

最近在ArXiv预印本平台看到了论文 《AI assistance reduces persistence and hurts independent performance》 讲述了AI损害坚持和独立表现。

论文主要观点

作者通过实验,把人随机分为两组,AI组对照组。进行分数方程和阅读理解。

  • 对照组全程不使用AI
  • AI组在前期使用AI,到后期被禁用AI。 发现,AI虽然能显著提升被测试者的能力,但是AI一旦被禁用,AI组的表现急剧下降跳过率也显著升高

作者提出,当代的AI不符合长期主义。 以往的合作追求的不只是答案而是一套解决问题的框架,不仅单是解决问题,还是以提高人们的素养为基础。而当代AI只是追求短期的结果并没有帮助人们提升能力

作者认为,AI使人们能力下降的机制有两个

  1. AI使人们对任务完成时间的基准发生变化

    当AI能经常在秒级的时间完成任务,对于任务所需的时间的标准变化了。 作为相对的,独立的工作开始感觉更加困难。这一过程结构上类似于快乐机制。 至关重要的是,这套机制会则我增强:每次任务外包都会改变基准点,增加不借助外力的主观成本,并且使未来的外包工作更具吸引力。

  2. AI消除了努力的效果

    努力不仅仅帮助人们建立了准确的知识,还帮助提升了自我认识。 如果缺乏独立工作的能力,人们将不会知道他们的能力,侵蚀了支持坚持力的元认知校准。

作者还提出,如果这种效果累计数月甚至于年,我们最后会造成一代学者,在没有科技帮助下,失去了富有成效学习的能力

作者最后提出: 这些风险分布也不均学术资源较少的学生可能最脆弱。虽然面向用户的干预措施(如苏格拉底式人工智能、缩短使用时间等)可能在边缘上有所帮助,但我们认为这些解决方案只能作为“权宜之计”,无法解决更深层次的问题,因为人工智能容易诱使大规模外包。

降低这些风险需要重新思考人工智能系统如何长期与人协作,并将目标拓宽到超越短期用户满意度的范围。我们希望我们的工作能激励这个领域思考,不仅优化人们用AI能做的事情,更要优化他们在没有AI的情况下能做的事情。

思考

说实话,最近我总是有种被时代抛弃的感觉,从mcp,到养龙虾,到skills,再到Claude code。 我总感觉我没有跟上AI时代。所以我开始加大了对AI的关注。开始尝试养龙虾🦞。 最近看到了这篇文章,让我思考了很多。

总体而言,我对AI的使用还算克制,虽然也有用AI来写代码,写作业,但大多时候写完了我都会读一遍,确保能理解。做算法的时候,看了AI的方法后还坚持关掉自己按照理解的敲一遍。在这一过程中,我能发现很多问题。

我选择如此保守的使用AI是因为MIT的学术诚信手册Academic Integrity at MIT 阅读时,我才发现我的学术诚信做的一塌糊涂。特别是在编写代码(writing-code)中。 令我感触最深的是这一段。

MIT的代码写作——学术诚信

Jerry already finished the problem set, but his friend Ben is now struggling with a nasty bug.

杰里已经完成了那套练习题,但他的朋友本现在正在为某个棘手的错误而苦恼。

Jerry sits next to Ben, looks at his code, and helps him debug. OK.

杰瑞坐在本旁边,看着他的代码,帮他调试。好的。

Jerry opens his own laptop, finds his solution to the problem set, and refers to it while he’s helping Ben correct his code. INAPPROPRIATE.

Jerry打开自己的笔记本电脑,找到了他自己的解答,并在帮本修改代码时参考它。不合适。

这不是为了刁难学生,而是为了保护“认知的挣扎(Cognitive Struggle)”。 学习的本质不是“得到正确答案”,而是在试错、思考、推翻重来的过程中,大脑神经元重新建立连接的过程。

在大一上学期的时候,当时做941code(学校的OJ平台)作业,有很多人来问我问题,甚至是直接要答案,我来者不拒,当时还把一些代码直接放在了GitHub上。

后面看完了这个MIT关于学术诚信的相关表述,感觉确实是做错了。与此同时,来问我问题的人也逐渐减少,大家都开始使用AI来做作业。

连在帮助别人的时候,使用自己的代码都是不恰当的。而直接跳过了debug,直接跳过了思考,直接使用AI的代码(甚至不是参考),这一行为明显就是学术不诚信。

到之后,没人来问我问题,我起初感觉轻松了很多,但是到做实训作业的时候,感觉完全就不同了。

我坚持手写,而大多数人开始在AI面前抽卡。较好的AI,比如ChatGPT,Gemini,DeepSeek等,一般抽一两次卡,就能把作业完成了。

还有一些人用一些傻瓜模型,然后错了还来问我,这其实没什么,我也能耐心解答。

最令我难受的是,最后我出来的分数,没有使用AI的人高。因为AI能写华丽的界面,能有GUI显示,甚至有些做了网页来展示。而我在当时就只能用CLI输出数据。我明白我的优绩主义又在作祟。但是确实挺难受的。

正如作者所言,“学术资源较少的学生可能最脆弱”,当下的课程,大家默认了AI是一个合法的工具。 并没有意识到使用该工具导致能力的下降。

在老师的教学任务中,也开始融入了AI,实训课难度也开始提升。虽然难度提升了,但是能力并没有,反而下降了与此同时人也更加的浮躁了

也确实是如此,不只是AI的问题,从短视频时代开始,人们的浮躁就开始显现,到现在AI时代,能直接出答案,少了能内化成为自己东西的能力,沉下心学习的能力。

使用AI到底会帮助人类带入一个美好的新世界,还是一个能摧毁人类的精神毒品?我不知道。

工业革命,造成了失业的危机。打字机的出现,有一手漂亮的字,也显得越发不重要。

那以后学习的能力,沉下心来的能力,真的重要吗?

我们会成为一个,在AI面前,不断修改着prompt,不耐烦的等待着AI出结果的抽卡机器吗?

我不知道。

参考资料

  1. 《AI assistance reduces persistence and hurts independent performance》
  2. Academic Integrity at MIT