2026年AI面试作弊数据:完整统计
好的这个月我一直在收集能找到的每一条关于AI面试作弊的数据,因为我不停地看到同样的数字被引用但没有来源,让我快疯了。外面一半的文章写"研究表明"但连一个研究都没链接。所以这里是我能用实际来源验证的每个真实数字,按它告诉你的趋势方向整理。提前警告这篇很长但我想把所有东西放在一个地方因为在别的地方我找不到这样的汇总。
最广为传播的标题数字来自Fabric对2025年6月到12月超过50,000名候选人的分析。作弊率在那六个月里从15%翻了一倍多到35%。想一下这意味着什么,不是渐进趋势而是半年翻倍。他们对19,368次面试的更详细研究发现38.5%的候选人被标记有作弊行为,技术岗48%销售岗12%,大约4倍的差距。零到五年经验的初级候选人作弊率几乎是资深专业人士的两倍。
Fabric数据中最可怕的部分是当作弊者没被抓到时会怎样。61%的作弊者得分超过7.0的及格线,如果不检测的话会进入下一轮。这意味着超过一半使用AI辅助的人通过了,公司要么在后续表现不匹配面试的时候才发现,要么根本发现不了。
重复行为模式也很疯。在多次面试的候选人中,47%从不作弊,30%每次都作弊,23%是看情况的作弊者有时作弊有时不作弊。那30%每次都作弊的基本上把它当成标准操作了。
在作弊方式上,Fabric按方法分类。专用AI助手比如Cluely和Interview Coder占作弊的45%。LLM语音模式,基本就是在第二个设备上和ChatGPT说话,占34%。切换标签和第二屏幕占18%。真人帮助只有3%。人们在从谷歌搜索转向专用工具这个事实说明这正在职业化。
Karat观察到过去两年作弊检测率五倍增长,和Fabric的数字吻合。一项独立调查发现59%的招聘经理现在怀疑候选人在实时评估中使用AI工具歪曲能力,62%的招聘专业人士承认求职者现在用AI伪装的能力比招聘人员检测的能力更强。那个62%的数字是最应该让公司担心的。
候选人这边数字更惊人。一项调查发现71%的近期求职者承认在招聘过程中作弊,方法从谷歌搜索答案到使用AI生成器。一位科技高管报告说80%的候选人使用LLM完成他们的顶层编程测试,尽管被明确告知不要这样做。
数据中的时间模式很有意思。Fabric发现2025年7月到9月作弊率三倍增长,2025年底的突然飙升标志着他们所说的从实验性到结构性作弊的转变。周日面试的作弊率最高47.1%,其他工作日集中在35到40%之间。周日的数字很合理,周末面试的人大概是在家没人看着。
一次差招聘的财务影响有充分记录。十五万美元工程师职位的一次差招聘直接成本在第一年收入的30到150%之间,也就是五万美元以上。技术岗重新招聘前的平均填充时间是42天。雇了一个靠作弊进来的人意味着月复一月的表现不佳、重启招聘流程,可能六位数的工资和生产力浪费。
展望未来,Gartner预测到2028年完全编造的候选人档案将占候选人池的25%。四个档案里有一个是假的,如果真的发生就会彻底摧毁远程招聘。
深度伪造方面也在加速。2025年中的一项调查中17%的HR经理说他们在视频面试中直接遇到过深度伪造技术。2025年第一季度的深度伪造事件达到179起,超过了2024年全年总数。2025年AI生成的深度伪造骗局增长了700%,美国深度伪造相关欺诈损失从3.6亿翻了三倍到11亿美元。
关于人们使用的工具的背景,市面上大约有二十多个面试AI工具,从浏览器扩展到桌面应用。价格从InterviewMan年付$12/月到Interview Coder只做编程的$299/月。Cluely在2025年中的数据泄露暴露了83,000名用户,包括每个人在哪些面试中使用了工具,黑客在公开GitHub仓库里找到了管理员密码。那次泄露真的说明不是所有工具都在保护用户。
我自己用InterviewMan,对我来说重要的区别是保护你数据的工具和让你暴露的工具之间的区别。InterviewMan作为桌面应用运行不是浏览器扩展,所以不会出现在监控日志里。57,000用户,257条评价4.8星,20多项隐身功能,每月十二块年付。在这么多用户中我在任何监考平台上都找不到一例被确认的检测报告。不管你觉得使用这些工具是否道德,数据清楚地说明一件事,使用它们的候选人比例只会上升,假装不是这样只是在和那35%不假装的人的竞争中给自己增加劣势。
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
