过去几年中,英国各大学已有数千名学生因滥用 ChatGPT 等人工智能工具被查出作弊,而传统抄袭行为则明显下降,《卫报》的调查显示。
一项关于学术诚信违规的调查发现,在 2023-24 学年,有近 7000 起经证实的 AI 作弊案例,相当于每 1000 名学生中有 5.1 起。而在 2022-23 学年,这一数字仅为每 1000 人 1.6 起。
截至 2025 年 5 月的数据表明,今年这一比例还将上升至约 每 1000 人 7.5 起。但有人指出,已记录的案例“只是冰山一角”。
这些数据凸显了大学面临的迅速变化的挑战:如何调整评估方式,以适应 ChatGPT 等 AI 写作技术的出现。
在生成式 AI 普及之前(2019-20 学年),抄袭占全部学术不端行为的近三分之二。 期间,由于评估大量转为线上,抄袭问题更加严重。 但随着 AI 工具的智能化和易用化,作弊的形式发生了根本变化。
调查显示,传统抄袭的确认案例从每千人 19 起降至 2023-24 学年的 15.2 起,并预计在本学年继续下降至约每千人 8.5 起。
大学尚未完全掌握 AI 作弊分类:
《卫报》根据《信息自由法》(Freedom of Information Act)向 155 所大学索取了过去五年内的学术不端、抄袭和 AI 违规案例数据,其中 131 所提供了部分数据。 但并非所有学校每年都有完整记录。
在 2023-24 学年,超过 27% 的大学尚未单独记录 AI 作弊行为,显示这一领域仍处于“摸索阶段”。
检测困难:94% 的 AI 作业未被发现
更多 AI 作弊案例可能未被发现。 高等教育政策研究所(HEPI)今年 2 月的调查显示,88% 的学生在完成作业时使用了 AI 工具。 而雷丁大学的研究者去年测试了自己的评估系统,发现他们提交的 AI 生成内容 有 94% 未被识别出。
雷丁大学心理学副教授 Peter Scarfe 博士表示,作弊从来就存在,但 AI 带来了全新的挑战。
社交平台成“AI作弊教程温床”
《卫报》发现,TikTok 上有大量视频推广所谓“AI 改写”或“论文生成”工具,这些工具可以“人性化”ChatGPT 的文本,从而绕过大学的检测系统。
帝国理工学院(Imperial College London)学术诚信研究者 Thomas Lancaster 博士表示:
名为 Harvey* 的学生刚完成英国北部某大学的商业管理学位。他告诉《卫报》,自己曾用 AI 来生成作业的思路、结构和参考文献建议,他认识的大多数人也都有类似的使用方式。
政府与科技公司双重角色
英国科技与创新大臣 Peter Kyle 近日告诉《卫报》,政府认为 AI 应被用来“为有阅读障碍的儿童创造公平的机会”。
科技公司也在积极瞄准学生群体。 Google 为大学生提供 15 个月的 Gemini 工具免费升级,而 OpenAI 则为美加的大学生提供优惠订阅。









