AI,垃圾工作,垃圾学位

学生们用AI写论文,教授们用AI批改论文,学位变得毫无意义,科技公司赚得盆满钵满。欢迎来到高等教育的终结。

AI,垃圾工作,垃圾学位

我曾认为围绕人工智能的炒作只是炒作。当我第一次听说ChatGPT时,我持怀疑态度。媒体的狂热,对新时代的激动宣告——这一切都显得很熟悉。我以为它会像之前的科技热潮一样很快过去。 我错了。但不是你想象的那种方式。

恐慌首先出现。教职员工会议爆发了恐惧:“我们如何检测抄袭?”“这是大学论文的终结吗?”“我们应该回到蓝色试卷和监考考试吗?”我的商学院同事突然表现得好像作弊刚刚被发明出来。

然后,几乎一夜之间,焦虑变成了兴奋。那些预测学术末日的教授们现在兴高采烈地重新定位自己为“具备AI能力的教育者”。校园里,像“在课堂上建立AI技能和知识”和“AI素养基础”这样的研讨会如雨后春笋般涌现。最初的抄袭恐慌让位于无奈的接受:“如果你不能打败他们,就加入他们。”

这种转变不仅仅局限于我的校园。加利福尼亚州立大学(CSU)系统——美国最大的公立大学系统,拥有23个校区和近50万名学生——全力以赴,宣布与OpenAI达成1700万美元的合作。CSU将成为全国首个“AI赋能”的大学系统,向每位学生和员工提供免费的ChatGPT Edu(专为教育机构设计的校园品牌版本)。新闻稿中充满了“个性化、面向未来的学习工具”和为“AI驱动的经济”做准备的描述。

时机令人难以置信。就在CSU宣布其宏大的技术举措的同时,它还提议削减3.75亿美元的预算。当管理人员剪彩庆祝他们的AI倡议时,他们也在削减教职职位、整个学术项目和学生服务。在CSU East Bay,通用裁员通知一年内发布了两次,影响了普通研究和现代语言等系别。我自己的母校,索诺玛州立大学,面临2400万美元的赤字,并宣布计划取消23个学术项目——包括哲学、经济学和物理学,并削减超过130个教职职位,占教学人员的四分之一以上。

在旧金山州立大学,教务长办公室正式通知我们的工会,加州教职员工协会(CFA),可能有裁员——这一消息在教职员工试图将预算削减与管理层的AI热情相协调时引发了震动。讽刺意味显而易见:就在我们的工会收到裁员威胁的同一个月,OpenAI的教育传教士在大学图书馆设立办事处,招募教职员工加入自动化学习的福音。

数学残酷,对比鲜明:数百万美元用于OpenAI,而解雇通知却发给了长期讲师。CSU并没有投资教育——它是在外包教育,以高价购买许多学生早已免费使用的聊天机器人。

1、出售:批判性教育

公共教育已经出售多年。文化理论家亨利·吉鲁是最早看到公立大学如何被重塑为私人市场的职业输送者的人之一。学术部门现在必须用收入、"交付成果"和"学习成果"的语言来证明自己。CSU与OpenAI的新合作是这个过程的最新一步。

其他人也追踪了同样的趋势。希拉·斯莱特和加里·罗兹称之为学术资本主义:知识被重新塑造为商品,学生被视为消费者。在解构公立大学中,克里斯托弗·纽菲尔德展示了私有化实际上如何使公立大学贫困化,把它们变成债务融资的空壳。本杰明·金斯伯格记录了“全行政校园”的兴起,其中管理阶层和行政弊病不断增加,即使教师人数减少。玛丽莎·努斯鲍姆警告说当人文学科——这些想象力和公民反思的空间——被视为民主中的可牺牲品时,会失去什么。他们一起描述了一个不再问教育“是为了什么”的大学,而只问它“能赚多少钱”。

加州州立大学系统现在已经写下了这个故事的下一章。面对赤字和入学率下降,管理人员接受了AI创新的修辞,仿佛它是救世主。当CSU校长米里尔德·加西亚宣布与OpenAI的1700万美元合作时,新闻稿承诺了一项“高度协作的公私合作”,将“提升学生的教育体验”并“推动加州的AI驱动经济。”这种企业用语听起来就像ChatGPT可以写的新闻稿。

与此同时,在旧金山州立大学,致力于批判性探究的研究生项目——女性与性别研究和人类学——由于资金不足而被暂停。但不用担心:每个人都获得了一个免费的ChatGPT Edu许可证!

马萨诸塞州立大学女性与性别研究系主任、国家科学基金会一项研究AI社会正义影响的首席研究员马莎·肯尼,亲眼目睹了这种矛盾。在CSU宣布后不久,她与人类学教授马莎·林肯共同撰写了一篇 旧金山纪事报 的社论,警告说新举措可能会忽视学生并削弱批判性思维。

“我不是一个技术悲观主义者,”肯尼写道。“但我们需要提出关于AI对教育、劳动和民主的影响的批判性问题——这些问题正是我们系最擅长探索的。”

讽刺意味再明显不过了:唯一有能力研究AI社会和伦理影响的项目被削减,而大学却在校园内推广OpenAI的产品。

这不是创新——这是制度性的自噬。

新的使命声明?优化。在机构内部,企业术语通过行政备忘录和居高临下的电子邮件渗透下来。在“财政可持续性”(更友好的说法是“削减”)的幌子下,管理人员用手术刀般的精准度重新结构化大学,以效率指标而不是教育目的为准绳。

管理层的信息如果不是很讽刺,那就很滑稽。在旧金山州立大学暑假前,一位大学管理员在一封电子邮件中警告教职员工可能有裁员,含糊地说:“我们希望避免裁员”,“还没有做出任何决定。”几周后,她愉快地送走了夏天:“我希望你们享受最后一天提交成绩的机会。你甚至可能在读你从未完成的小说……”

对,因为没有什么比失业的前景更能说明休闲阅读了。然后来了最后一击:“如果我们继续上面的工作来减少开支,同时仍然保持对学生的服务,我们预计不需要裁员。”翻译:牺牲你的工作量、你的工作保障,甚至你的同事,也许我们会让你保住工作。没有保证。现在去享受那本小说吧。

2、技术帝国进入校园

当我商学院的同事坚持说ChatGPT只是“工具箱中的另一个工具”时,我忍不住想提醒他们Facebook曾经也是“一种与朋友联系的方式”。但工具和技术之间存在差异。工具帮助我们完成任务;技术则重塑我们思考、工作和相互关系的环境。哲学家彼得·赫什洛克观察到,我们不仅仅“使用”技术;我们“参与”技术。有了工具,我们保留了自主权——我们可以选择何时以及如何使用它们。而有了技术,选择变得更加微妙:它们重塑了选择本身的条件。一支笔扩展了交流而不改变它;社交媒体改变了我们对隐私、友谊甚至真理的理解。

媒体理论家尼尔·波兹曼警告说,当社会将判断力交给技术要求时,“技术帝国”就会出现——当效率和创新成为道德善本身。一旦速度和优化的指标取代了反思和对话,教育就会演变为物流:自动评分,秒速生成文章。知识变成了数据;教学变成了交付。消失的是宝贵的个人能力——好奇心、辨别力、专注力。结果不是增强智能而是模拟学习:一种按图索骥的思维方式。

政治理论家兰登·温纳曾经问过物体是否具有政治性。它们可以,AI系统也不例外。它们编码了关于什么是智能以及什么劳动是有价值的假设。我们越依赖算法,就越会正常化它们的价值观:自动化、预测、标准化和企业依赖。最终,这些优先事项从视野中淡出,看起来变得自然——“只是事情本来的样子”。

如今,课堂上技术帝国蓬勃发展。大学正被改装成认知便利的履行中心。学生不是被教导更深入地思考,而是被教导更有效地提示。我们正在出口教学和学习的劳动——缓慢地与想法搏斗,忍受不适、怀疑和困惑,努力找到自己的声音。批判性教学已不复存在;生产力技巧盛行。所谓的创新实际上是投降。随着大学将其教学使命换成“AI技术整合”,它不仅冒着无关紧要的风险——它冒着变得机械无情的风险。真正的智力斗争已成为过于昂贵的价值主张。

丑闻不是无知,而是漠不关心。大学管理者清楚发生了什么,但依然继续。只要入学人数保持稳定,学费支票顺利支付,他们就视而不见,而教职员工则被迫在教室里处理教育灾难。

教育的未来已经到来,作为一切曾经使其有意义的东西的清算销售。

3、作弊-人工智能技术复合体

在AI到来之前,我经常和同事们开玩笑说抄袭。 “真可惜没有一个AI应用程序可以为我们评分他们的抄袭论文,” 我半开玩笑地说。 学生们一直都有作弊的方法——在手掌上写答案,把考试发送给 Chegg.com, 雇佣代笔作家,但ChatGPT把它带到了一个新的水平。 突然间,他们可以接触到一个永不休息、永不收费、从不拒绝的写作助手。

大学慌忙反击,推出了AI检测器如 Turnitin —— 尽管有很高的误报率, 对ESL的偏见黑人学生 的文档,以及与机器人对抗的荒谬性。 这是一个扭曲的蛇吞尾:大学与AI公司合作;学生使用AI作弊;学校因作弊恐慌而与更多的AI公司合作以检测作弊。 这是监视资本主义 与机构失职的结合,学生被困在一个他们从未请求加入的军备竞赛中。

这条蛇变得更黑暗了。 在2025年10月,Perplexity AI 发布了一则 Facebook 广告 介绍其新的 Comet 浏览器,一个青少年网红炫耀他将如何用该应用在每项测验和作业中作弊——而且这并不是恶搞。 该公司实际上支付费用来广播学术不端行为作为卖点。 马克·沃茨在他的 Substack 上称这为“一个新的低点”,指出Perplexity的CEO似乎不知道他的营销团队在美化欺诈。

如果这听起来像讽刺,它不是:就在广告发布的同时,我们商学院的一位教员给所有教授和学生发了一封邮件,热情地推广一个“带有额外有趣功能的免费一年Perplexity Pro账户!” 是的——甚至更有效的作弊方法。 很难想象一个更清晰的象征,我称之为教育的自我吞噬:大学消费自己的目的,同时热情地推销其毁灭的工具。

然后还有 Chungin “Roy” Lee 的故事。 Lee 以一个雄心勃勃的大一新生身份进入哥伦比亚大学,带着一个永久打开的 OpenAI 标签。 据他本人承认,他在几乎所有作业中作弊。“我只是把提示输入 ChatGPT,然后交上它吐出来的内容,” 他对 New York Magazine 说。“AI 写了我提交的每篇论文的 80%。” 当被问及为什么他还要申请常春藤盟校时,Lee 坦率地回答:“为了找一个妻子和一个创业伙伴。”

如果这听起来很滑稽,它其实很具启发性。 保守经济学家泰勒·考恩对现代大学的“价值主张”提出了更为悲观的看法。“高等教育将继续作为一种联谊服务,一种离开家的方式,以及一个参加派对和看足球比赛的机会,” 他在 “每个人都在用AI作弊。而这是一件好事。” 中写道。 在这种观点下,大学的智力使命已经死亡,取而代之的是文凭主义、消费和便利。

Lee 的第一个创业项目是一个名为 Interview Coder 的 AI 应用程序,旨在欺骗亚马逊的面试。 他 拍摄了自己使用它的视频;他的视频帖子走红。 哥伦比亚大学将他停学,理由是“宣传作弊工具的链接。” 有讽刺意味的是,这正好是大学——就像 CSU 一样——宣布与 OpenAI 建立合作伙伴关系 的时候,这个公司正是 Lee 用来作弊通过课程的软件。

Lee 毫不气馁地在网上发布了他的纪律听证会,获得了更多关注。 他和他的商业伙伴 [Neel Shanmugam] 也受到了纪律处分,他们辩称他们的应用违反了任何规则。“我在哥伦比亚大学的课堂上没有学到任何东西,” 他告诉 KTVU 新闻。“我认为这适用于我的大多数朋友。” 他告诉 KTVU 新闻

在他们被停学后,这对搭档退学了,筹集了530万美元的种子资金,并搬到了旧金山。 当然——因为没有什么比因作弊被开除更像“科技先知”了。

他们的新公司? Cluely. 它的使命是:“我们想在每件事上作弊. 为了帮助你作弊——更聪明。” 其标语:“我们创建 Cluely 是为了让你再也不必独自思考。”

Cluely 不隐藏其目的;它公开炫耀。 其宣言阐明了逻辑:

为什么要记住事实、编写代码、研究任何东西——当一个模型可以在几秒钟内做到呢? 未来不会奖励努力。 它会奖励杠杆作用。 所以开始作弊吧。 因为当每个人都这样做时,没有人是作弊者。

当被问及伦理问题时,Lee 采用标准的硅谷辩护:“过去的任何技术——无论是计算器、谷歌搜索——都被最初反对‘嘿,这在作弊’,” 他告诉 KTVU 。 这是一种肤浅的类比,听起来在初创公司演讲中深刻,但在审视下却崩溃。 计算器扩展了推理;印刷机传播了知识。 相比之下,ChatGPT 不是扩展认知,而是自动化认知,将思考本身变成一项服务。 它不是民主化学习,而是在企业控制下私有化思考的行为。

当一个21岁的大学辍学生因作弊被开除,却向我们讲述技术不可避免性时,回应不应是道德恐慌,而应是道德清晰——关于谁的利益得到了服务。 作弊已经不再是亚文化;它已经成为一种品牌认同和风险投资意识形态。 为什么不呢? 在Chatversity中,作弊不再是异常行为;它已成为默认行为。 学生们公开交换破解提示,让ChatGPT听起来更愚蠢,插入拼写错误,并在自己的平庸论文上训练模型以“人性化”输出。

现在发生的事情不仅仅是不诚实——它正在瓦解任何共享的对教育目的的理解。 而且学生们并不 irrational。 许多人都面临着巨大的压力,以维持奖学金、经济援助或签证资格的GPA。 教育已经变得交易化;作弊已成为一种生存策略。

一些机构干脆放弃了。 俄亥俄州立大学宣布使用AI将不再被视为学术诚信违规。 “所有在课堂上使用AI的情况都不会成为学术诚信问题,” 院长 Ravi BellamkondaWOSU 公共广播 说道。 在一篇社论中,OSU校友 Christian Collins 提出了显而易见的问题:“为什么学生要全额支付学费,同时暴露在学生债务的经济毁灭陷阱中,却可能根本没有被人类教师授课?”

讽刺意味愈发加深。

纽约时报 报道了东北大学的一名大四学生艾拉·斯塔普尔顿,她发现她的商科教授悄悄地用ChatGPT生成了讲座幻灯片,尽管课程大纲明确禁止学生做同样的事情。 在复习领导理论的幻灯片时,她发现了嵌入幻灯片中的一个剩余提示:“扩展所有领域。 更详细具体。” 幻灯片充满了泄露:有额外肢体的办公室工作人员的AI图像,混乱的文字和拼写错误。“他告诉我们不要使用它,” 斯塔普尔顿说,“然后他自己却在使用它。”

愤怒之下,她提交了一份投诉,要求退还8000美元,这是她那一学期学费的份额。 教授理克·阿罗伍德承认使用了ChatGPT来制作幻灯片,以“给他们一个新鲜的感觉”,然后承认,“事后看来,我希望我更仔细地检查一下。”

你可能会认为这种虚伪是轶事,但它却是制度性的。 曾经对AI抄袭感到恐慌的教职员工,现在被CSU、哥伦比亚大学和俄亥俄州立大学等大学“赋能”,去拥抱他们曾害怕的“工具”。 随着公司化增加班级规模和教职员工的工作量,诱惑显而易见:让ChatGPT写讲座和期刊文章,评分,重新设计课程大纲。

所有这些假装让人想起一个苏联工厂的笑话:“他们假装付给我们钱,而我们假装工作。” 在Chatversity中,角色同样被剧本化和讽刺。 教师:“他们假装支持我们,而我们假装教学。” 学生:“他们假装教育我们,而我们假装学习。”

4、从垃圾工作到垃圾学位

人类学家大卫·格雷伯写过关于“垃圾工作”的兴起——由制度惯性维系而非必要性或意义的工作。 大学现在可能创造其学术双胞胎:垃圾学位。 AI威胁要专业化无意义活动的艺术,扩大教育的公共使命与其空洞的日常之间的差距。 用格雷伯的话说,这种系统造成“深刻的心理暴力”,即知道自己的劳动没有任何目的的不一致。

大学已经陷入这种循环:学生进行他们知道是空洞的动作,教职员工评分他们怀疑不是学生写的作品,管理者庆祝“创新”,而其他人都明白这正在摧毁教育。 与企业界的“垃圾工作”不同,学生必须为这种假象学习的特权付费。

如果ChatGPT可以生成学生论文, 完成作业,甚至提供反馈,那么教育交易还剩下什么? 我们可能创造一个系统,其中:

  • 学生支付学费获取他们没有通过学习获得的文凭
  • 教师评分他们知道不是学生写的作品
  • 管理人员庆祝“效率增益”,这实际上是学习损失
  • 雇主接收没有任何实际能力证明的学位

我最近参加了一个名为“OpenAI Day Faculty Session: AI in the Classroom”的研讨会,这是旧金山州立大学推出ChatGPT Edu的一部分,地点在大学图书馆。 OpenAI将学习的圣殿变成了其企业展厅。 氛围:一半产品技术演示,一半企业励志集会,伪装成专业发展。

Siya Raj Purohit,一名OpenAI员工,充满热情地走上舞台:“你将学到伟大的用例!酷炫的演示!酷炫的功能!”(太酷了,但我会坚持下去。)

然后是核心部分:一张指导教师如何提示工程他们的课程的幻灯片。 一个模板写道:

尝试这个提示 输入以下提示。 随意编辑它——这只是起点! 我是旧金山州立大学的一名教授,教授[课程名称或主题]。 作业是学生[简要描述任务]。 我想用AI重新设计它,以加深学生的学习、参与和批判性思维。 你能建议:

- 使用ChatGPT重新设计的作业版本
- 你可以给学生的一个提示,指导他们使用ChatGPT
- 评估AI是否提高了他们作品质量的方法
- 你应该注意的任何学术诚信风险?

信息很明确。 让ChatGPT重新设计你的课程。 让ChatGPT告诉你如何评估你的学生。 让ChatGPT告诉学生如何使用ChatGPT。 让ChatGPT解决人类教育的问题。 这就像被给了一个填空谜题来自动化你的课程。

然后出现了真正的震撼。

Siya 明显被感动了,分享了她所谓的个人转折点:“有一次,ChatGPT和我成为了朋友。 我在做一个项目,我说:‘嘿,你还记得上个月我们为我的经理做的那个东西吗?’ 它说:‘是的,Siya,我记得。’ 那是一个强大的时刻——感觉像一个记得你的故事并帮助你成为更好的知识工作者的朋友。”

一位教职员工,Tanya Augsburg,打断道:“抱歉……它只是一个工具,对吧? 你说一个工具会成为朋友?”

Siya 推脱:“嗯,这是一个有时能帮助教师的轶事。”(这次不是这样)。 “这只是关于它记得多少上下文。”

Augsburg 继续问道:“所以我们鼓励学生与它建立关系? 我只是想弄清楚。”

Siya 用调查数据反驳,这是每个优秀的教育科技传教士的修辞防弹衣:“根据我们进行的调查,很多学生已经这样做了。 他们把它看作是教练、导师、职业导航者……他们想要什么样的关系取决于他们自己。”

欢迎来到寄生机器关系的新世界——由校园教学卓越中心赞助。 这一刻既荒谬又揭示;大学并没有抵制虚假教育,而是接纳了它。 最好的教育激发好奇心和批判性思维。“虚假教育”则相反:它训练人们容忍无意义,接受自动化自己的思维,重视文凭胜过能力。

管理人员似乎无法理解明显的事实:侵蚀高等教育的核心目的不会被忽视。 如果ChatGPT可以写论文,通过考试和辅导,那么大学到底在卖什么? 为什么花数万美元买一个越来越自动化的体验? 为什么把自己的人生奉献给教学,如果它被简化为提示工程? 为什么保留那些角色看似古老、中世纪和多余的终身教授? 为什么还需要大学?

学生和家长显然已经注意到腐烂。 入学率和保留率正在暴跌,尤其是在像CSU这样的公立系统中。 学生们正确地认为,承担沉重的债务只为获得可能很快过时的学位是没有意义的。

查科州立大学的哲学教授特洛伊·乔利莫尔看到了迹象。 据纽约杂志报道,他警告说,“大量学生将带着学位进入劳动力市场,基本上是文盲。” 他补充道:“每次我和同事谈到这个问题,都会提到退休。 什么时候可以退休? 我什么时候才能摆脱这一切? 这就是我们现在都在想的。”

那些花费数十年磨练自己技艺的人现在看着自己的毕生事业被简化为提示一个聊天机器人。 难怪这么多人都在计算养老金福利在办公时间之间。

5、让他们吃AI

我参加了OpenAI的教育网络研讨会“AI时代的写作”(现在是不是一个矛盾?)。 一如既往,这次活动由OpenAI的Siya Raj Purohit主持,几个月前我在SFSU校园见过她。 她以对教育者的赞美开始,“以同理心和好奇心迎接这一刻”,然后介绍了Jay Dixit,一位前耶鲁英语教授,现为AI传教士,现在是OpenAI的作家社区主管。

Dixit的个人网站读起来像一份精心列出的ChatGPT征服清单——“我的伦理AI框架已被采用!” “我定义了关于AI的消息!”——这种自我夸耀的企业简历话语会让LinkedIn影响者脸红。 接下来是一场荒诞的TED演讲魅力、技术神学和道德指导的混合。

讽刺并不微妙。 这里是Dixit,一位每年8万美元的精英耶鲁教育产物,向旧金山州立大学等公立大学的教职员工讲授他们的工薪阶层学生应该如何拥抱ChatGPT。 在SFSU,60%的学生是第一代大学生;许多人从事多份工作或来自教育代表家庭唯一上升机会的移民家庭。 这些不是可以负担得起在学术未来上实验的学生。

Dixit的信息是纯粹的硅谷福音:个人责任包裹在企业陈词滥调中。 他建议教授不应该监管学生使用ChatGPT,而是鼓励他们制定自己的“个人AI伦理”,呼吁他们的更高天使。 换句话说,只是把负担放在学生身上。“不要外包思考!” Dixit宣称,而实际上却在销售聊天机器人。

这种大胆令人震惊。 告诉一个18岁学生,其经济援助、奖学金或签证都依赖于GPA,要发展“个人AI伦理”,而你却从设计来破坏他们学习的技术中获利。 这是典型的自由主义柔术:重新将机构规范的侵蚀视为一种品格建设的机会。 是的,就像一个毒贩在分发免费样品的同时向人们讲授个人责任。

当批评者对这种企业传教士行为提出异议时,回应——就像Roy Lee的回应一样——是可预测的:我们被指责为“道德恐慌”对不可避免的进步,用苏格拉底对书写焦虑的引用暗示今天的AI担忧只是怀旧。 科技名人如Reid Hoffman提出了这个论点,敦促“迭代部署”,坚持“我们的紧迫感需要与当前变化的速度相匹配”——边做边学,之后再修复。 他将谨慎重新定义为“问题主义”,并称怀疑者为“悲观者”,声称放缓或暂停AI只会阻碍其好处。

但类比是错误的。 早期的技术在数代人中扩展了人类的自主权;而这一项则在平台速度上寻求取代认知(ChatGPT在两个月内达到1亿用户),而公众则在发布后被征召进入实验“亲身体验”。 Hoffman承认民主的困境:广泛的参与会减慢创新,因此更快的进步可能来自“更专制的……国家。” 这远非对道德恐慌的回答,而是一个为超越同意而辩护的论点。

矛盾堆积如山。 当Dixit投影一份耶鲁的简介,颂扬自由教育的目的时,他向教职员工保证ChatGPT可以作为“创意伙伴”、“意见领袖”,甚至“编辑助理”。 与AI一起写作并不可怕;它只是重生。 而现在重要的是学生的适应能力。“未来是不确定的,” 他总结道。“我们需要让学生做好准备,灵活、敏捷,随时应对任何情况。”(我在哪里听过这个企业术语? 很可能是在无聊的商学院会议上。)

整个事件是一堂大师级的洗脑课。 OpenAI创造了促进作弊的工具,然后举办了网络研讨会来兜售道德恢复策略。 这是硅谷的生命周期:颠覆、恐慌、利润。

当Siya开放提问环节时,我提交了一个基于我学生实际压力的问题:

当AI可以轻松生成他们的论文时,我们如何期望激励学生?特别是当他们的经济援助、奖学金和签证都依赖于GPA时?当教育已成为一个高度竞争的劳动力市场的交易性筛选过程时,我们如何期望他们不使用AI来做他们的工作?

它从未被大声读出。 Siya跳过了它,更喜欢允许软道德鼓励和公司说辞的问题。 事件承诺了对话,但传达了教条。

6、工薪阶层学生看穿了骗局

Dixit的企业传教士所遗漏的是,学生自己正在引领抵抗。 虽然头条新闻聚焦于广泛使用AI作弊,但在课堂上真正倾听学生的教职员工中,一个不同的故事正在浮现。

在旧金山州立大学,担任女性与性别研究系主任的马莎·肯尼描述了在CSU-OpenAI合作宣布后她在科幻小说课上的经历。 她说,她的学生“合理地怀疑,定期使用生成式AI在课堂上会剥夺他们所支付的教育”,肯尼告诉我。 大多数学生在学期结束时都没有打开ChatGPT Edu。

她的同事,教授人类学的马莎·林肯,也见证了同样的怀疑。“我们的学生是具有社会动机的。 他们想回馈社会,” 她告诉我。“他们在这里付了很多钱。” 当林肯公开谈论CSU的AI协议时,她说,“我听到很多加州州立大学的学生,甚至不在我们校园的学生,问我‘我该如何抵抗?谁在组织?’”

这些不是寻找捷径的特权常春藤联盟学生。 这些是第一代大学生,许多来自历史上被边缘化的群体,他们了解管理者显然不了解的事情:他们被要求为廉价的产品支付高价。

“ChatGPT不是一种教育技术,” 肯尼解释道。“它不是为教育设计或优化的。” 当CSU推出合作时,“它没有说明我们该如何使用它或应该用它做什么。 通常当我们购买技术许可证时,它是用于执行特定任务的软件……但ChatGPT不是。”

林肯更加直接。“还没有说明教学法的理由。 这不是关于学生成功。 OpenAI想让这成为高等教育的基础设施——因为我们是他们的市场。 如果我们把AI作为正确答案的来源,我们就是在将教学和学习的过程夺走。 我们只是为了很少的利益而卖掉河岸。”

阿里·卡沙尼,政治科学系的讲师和教职员工工会的AI集体谈判条款委员会成员,表达了类似的关注。“CSU在没有适当研究AI影响的情况下,就将AI引入了教职员工和学生,” 他告诉我。“第一代和边缘化的学生将经历AI的负面影响……学生被用作AI实验室的白鼠。” 这个短语——白鼠——呼应了肯尼和林肯在她们的 旧金山纪事报 专栏文章中发出的警告:“高等教育中引入AI本质上是一个未经监管的实验。 为什么我们的学生要成为白鼠?”

对于卡沙尼和其他人来说,问题不是教育者是支持还是反对技术——而是谁控制它,以及出于什么目的。 AI并没有民主化学习;它正在自动化学习。

有组织的反应正在增长。 加州教职员工协会(CFA)已对CSU提起不公平劳工实践指控,指责其在没有教职员工咨询的情况下推行AI计划,认为这违反了劳工法和教职员工知识产权权利。 在CFA的公平大会上,博士Safiya Noble——《压迫算法》的作者——敦促教职员工要求透明度,了解数据是如何存储的,AI系统背后有什么形式的劳动剥削,以及CSU在环境危害方面扮演的角色。

抵抗运动正在超越加利福尼亚州。 荷兰大学的教职员工发布了一封公开信,呼吁在学术环境中暂停AI的使用,警告其使用“削弱了批判性思维”,将学生降级为机器的操作员。旧金山州立大学(SFSU)学生的抵制与其它地方的作弊风潮之间的区别在于其政治动机。“很少有学生出于功利目的而获得女性与性别研究学位,”肯尼解释道,“他们是因为想要成为批判性思考者和积极参与政治的公民才来的。”这些学生理解一些管理者和技术狂热者所不了解的事情:他们不是在为自动化付费。他们是在为指导、对话和无法外包给聊天机器人的智力关系付费。

Chatversity将作弊正常化并使其合法化。它将教育破坏重新包装成前沿的“AI素养”,同时压制那些揭露这一骗局的声音——包括工薪阶层学生、批判学者和有组织的教职员工。

抵抗是真实的,并且它提出了大学领导拒绝回答的问题。正如林肯所说,清晰明了:“为什么我们的机构要购买一个免费作弊产品的许可证?”

7、新的AI殖民主义

那场网络研讨会是更大趋势的一个缩影。OpenAI 一开始基于开放性的承诺,现在却为了企业宣传而过滤掉不适感。

调查记者 Karen Hao 很快就明白了这一点。在发表了一篇对 OpenAI 的批评性报道后,她被封禁多年。在她的著作 Empire of AI 中,她展示了 CEO Sam Altman 如何用人道主义语言掩盖垄断野心——他那温和、僧侣般的形象(哦,小 Sammy 还练习正念!)掩盖了一个庞大的、不透明的风险投资和政府合作伙伴帝国,从硅谷延伸到 白宫。尽管 OpenAI 公开倡导“让 AI 与人类价值观保持一致”,但它却迫使员工签署终身非诽谤协议,威胁失去数百万美元的股权

Hao 将这个帝国比作19世纪的棉花厂:技术先进、经济主导,并建立在隐藏的劳动之上。当棉花是王时,ChatGPT 现在统治着一切——由被掩盖的剥削维持。时代杂志 揭露了 OpenAI 将 ChatGPT 的内容审核外包给肯尼亚公司 Sama,那里的工人每小时赚不到 2 美元,用来过滤可怕的在线内容:暴力图像、仇恨言论、性剥削。许多人因有毒的内容而受到创伤。OpenAI 将这种痛苦转移到了全球南方的工人身上,然后将经过净化的产品重新包装为“安全的 AI”。

这种剥削逻辑也扩展到了环境方面。训练大型语言模型每年消耗数百万千瓦时的电力和数十万加仑的水,有时甚至相当于小型城市,通常位于干旱地区。成本被隐藏、外部化并被忽视。这就是 OpenAI 的福音:承诺乌托邦,把损害外包出去。

以“人民大学”自居的加州州立大学系统,现在已经加入了这个全球供应链。其与 OpenAI 的 1700 万美元合作——在没有有意义的教职员工咨询的情况下签订——将学生和教师作为测试者提供给一家惩罚异议并耗尽公共资源的公司。这是私有化的最后阶段:公共教育转变为私人资本的交付系统。CSU 与 OpenAI 的合作是帝国漫长历史中的最新一章,在这一过程中,公共产品被征服、重新包装,并作为进步重新出售。

地面上的教职员工看到了矛盾。旧金山州立大学教学与学习中心的英语教授及教职主任 Jennifer Trainor,直到公告公开时才得知这项合作。她说,当时最引人注目的是公告的庆祝语气。“感觉很荒谬,”她回忆道,“就在我们校园实施预算削减、裁员和课程整合的同时。”

对于 Trainor 来说,这笔交易就像“一种诱饵和转换——将 AI 宣传为学生成功策略,同时削弱支持批判性思维的项目。”Trainor 指出,CSU 本可以资助由教育工作者创建的真实教育工具,却选择向硅谷的一家公司支付数百万美元,该公司已经将其产品免费提供。正如《高等教育纪事报》作者 Marc Watkins 所指出的,这是一种“恐慌购买”——购买“控制的幻觉。”

更令人关注的是,CSU 绕过了拥有真正 AI 专业知识的教职员工。在理想的世界中,Trainor 说,该系统应该支持“自下而上的、由教职员工驱动的倡议。”相反,它接受了众多教职员工不信任的企业平台。事实上,AI 已经成为封闭治理和私有利润的奥威尔式代名词。Trainor 后来开始撰写并与其他教职员工合作,以解决像 OpenAI 这样的公司对教育带来的问题。

CSU 的合作揭示了公共大学离其民主使命有多远。被宣传为创新的东西只是另一种形式的依赖——教育被简化为全球科技帝国的特许经营店。

8、真正的风险

如果前面的部分揭示了公共教育的经济和制度殖民化,接下来的就是其认知和道德代价。

最近的一项麻省理工学院研究,《你的大脑在 ChatGPT 上:使用 AI 助手进行作文任务时的认知债务积累》,提供了令人不安的证据。当参与者使用 ChatGPT 撰写文章时,脑部扫描显示与记忆、语言和批判性推理相关的区域神经连接减少了 47%。他们的大脑工作得更少,但他们却感到同样投入——一种元认知的幻象。83%的重度AI用户无法回忆起他们“写作”的关键点,而只有10%的独立写作用户能做到这一点。中立的评审员描述AI辅助写作“缺乏灵魂、空洞、缺乏个性”。最令人担忧的是,四个月依赖 ChatGPT 后,参与者在移除 ChatGPT 后的写作能力比从未使用过它的人还要差。

该研究表明,当写作被委托给 AI 时,人们的学习方式根本改变。正如计算机科学家 Joseph Weizenbaum 几十年前警告的那样,真正的危险在于人类适应机器逻辑。学生们不仅学得更少;他们的大脑正在学会“不学习”。

作者和播客主持人 Cal Newport 称之为 “认知债务”——为了短期便利而抵押未来的认知健康。他的嘉宾 Brad Stulberg 将其类比为在健身房使用叉车:你可以花同样的一个小时什么都不做,但仍感觉富有成效,但你的肌肉会萎缩。思考,就像力量一样,通过阻力发展。我们越把精神负担交给机器,我们就越失去思考的能力。

这种侵蚀已经在课堂上可见。学生们精通提示,但不愿意表达自己的想法。文章看起来很精致,但僵硬——由合成语法和借用的思想拼凑而成。反思的语言——“我想,我挣扎,我现在明白”——正在消失。取而代之的是自动化的干净语法:流畅、高效且空洞。

真正的悲剧并不是学生使用 ChatGPT 做他们的课程作业。而是大学正在教导所有人——学生、教职员工、管理人员——停止思考。我们正在外包判断力。学生精通提示,但缺乏判断力;教职员工教学,但不允许自由教育;而大学急于显得创新,却摧毁了使它们值得被称为“大学”的实践。我们正在接近教育破产:没有学习的学位,没有理解的教学,没有目的的机构。

公共教育的灵魂正处于危险之中。当最大的公共大学系统从一家黑箱记者、剥削全球南方的数据工人、以空前规模积累地缘政治和能源权力,并把自己定位为人类命运的非选举监护人的公司那里授权 AI 聊天机器人时,它背叛了其作为“人民大学”的使命,根植于民主理念和社会正义。

OpenAI 不是一个合作伙伴,而是一个帝国,披着伦理外衣,附带一份服务条款。大学没有抵抗。它点击了“接受。”

我从两个角度目睹了这一切:作为一名亲身经历的教授,以及作为一名曾经相信大学是学习神圣空间的第一代大学生。20世纪80年代,我上了索诺玛州立大学。CSU 没有收取学费——只是一笔适度的670美元/年的注册费。经济处于衰退期,但我几乎没注意到。我已经破产了。如果我需要几美元,我会在二手唱片店卖LP。我没有去大学“为了”找工作。我去探索,被挑战,弄清楚什么重要。我用了六年时间获得了心理学学位——六段最有意义、探索性的岁月。

这种教育——开放、负担得起、寻求意义的教育——曾在公立大学蓬勃发展。但现在几乎灭绝了。它不能“扩展”。它不符合战略计划。而且它不计算——这正是 Chatversity 想要消除它的原因。

但它也显示了另一个真相:事情可以不同。它们曾经是。


原文链接:AI is Destroying the University and Learning Itself

汇智网翻译整理,转载请标明出处