Statistik Kecurangan AI Interview 2026: Data Lengkap
oke jadi gue udah ngumpulin setiap statistik yang bisa gue temuin soal kecurangan AI interview selama sebulan terakhir soalnya gue terus lihat angka yang sama dikutip tanpa sumber dan itu bikin gue gila. Setengah artikel di luar sana referensi "studi menunjukkan" tanpa link satu studi pun. Jadi ini setiap angka beneran yang bisa gue verifikasi dengan sumber asli, diorganisir berdasarkan apa yang dia bilang soal ke mana arahnya. Fair warning ini panjang tapi gue mau semuanya di satu tempat soalnya gue nggak bisa nemu itu di mana pun.
Angka headline yang terus beredar itu dari analisis Fabric terhadap lebih dari 50.000 kandidat antara Juni dan Desember 2025. Adopsi kecurangan lebih dari dua kali lipat dari 15% jadi 35% dalam jendela enam bulan itu. Coba renungin sebentar, itu bukan tren gradual, itu penggandaan dalam setengah tahun. Studi mereka yang lebih detail dari 19.368 interview menemukan 38.5% dari semua kandidat di-flag untuk perilaku curang, dengan posisi teknis di 48% dan sales di 12%, selisih kurang lebih 4x. Kandidat junior dengan nol sampai lima tahun pengalaman curang hampir dua kali lipat tingkat profesional senior.
Bagian paling seram dari data Fabric itu apa yang terjadi waktu orang curang nggak ketangkep. 61% dari yang curang dapat skor di atas ambang kelulusan 7.0 atau lebih tinggi dan bakal lanjut ke sesi berikutnya tanpa deteksi. Artinya lebih dari setengah orang yang pakai bantuan AI lolos, dan perusahaan cuma nangkep mereka kemudian waktu performa nggak cocok sama interview atau mereka nggak nangkep sama sekali.
Pola perilaku berulang juga gila. Di antara kandidat yang interview beberapa kali, 47% nggak pernah curang di interview mana pun, 30% curang di setiap satu, dan 23% orang curang situasional yang kadang lakuin kadang nggak. Yang 30% yang curang setiap kali pada dasarnya nganggep itu prosedur operasi standar di titik ini.
Soal gimana mereka lakuin, Fabric rinci berdasarkan metode. Asisten AI dedicated kayak Cluely dan Interview Coder nyumbang 45% kecurangan. LLM voice mode, intinya ngomong sama ChatGPT di perangkat kedua, 34%. Pindah tab dan layar sekunder 18%. Bantuan manusia langsung cuma 3%. Fakta bahwa orang pindah ke tool dedicated bukan cuma googling jawaban di tab kedua ngasih tau kamu ini jadi diprofesionalkan.
Karat observe peningkatan lima kali lipat di tingkat deteksi kecurangan selama dua tahun terakhir yang sejalan sama angka Fabric. Survei terpisah menemukan 59% hiring manager sekarang curiga kandidat pakai tool AI untuk misrepresent kemampuan mereka selama assessment langsung, dan 62% profesional hiring ngakuin bahwa pencari kerja sekarang lebih baik faking pakai AI daripada recruiter mendeteksinya. Angka 62% itu yang harusnya bikin perusahaan paling khawatir.
Di sisi kandidat angkanya bahkan lebih striking. Survei menemukan 71% pencari kerja baru ngakuin curang selama proses hiring dengan metode dari Googling jawaban sampai pakai AI generator. Satu tech leader lapor 80% kandidat pakai LLM untuk selesaikan code test top-of-funnel mereka meskipun mereka secara eksplisit dibilang jangan.
Pola temporal di data menarik. Fabric menemukan peningkatan 3x di kecurangan dari Juli sampai September 2025, dengan spike mendadak di akhir 2025 menandai apa yang mereka sebut pergeseran dari kecurangan eksperimental ke struktural. Interview Minggu nampilin tingkat kecurangan tertinggi di 47.1% dengan hari kerja lain berkisar antara 35 dan 40%. Angka Minggu masuk akal, orang yang interview di weekend mungkin lakuin dari rumah tanpa ada yang ngawasin.
Dampak finansial dari hire yang salah udah well documented. Biaya langsung untuk satu hire buruk di posisi engineering $150.000 berkisar dari 30 sampai 150% penghasilan tahun pertama, jadi $50.000 atau lebih. Rata-rata waktu untuk ngisi posisi teknis sebelum restart 42 hari. Perusahaan yang hire seseorang yang curang jalannya masuk lihat berbulan-bulan underperformance, restart proses hiring, dan potensi enam digit gaji terbuang dan produktivitas hilang.
Ke depan, Gartner proyeksi bahwa di 2028 profil kandidat yang sepenuhnya difabrikasi bakal nyumbang 25% dari pool kandidat. Satu dari empat profil palsu itu angka yang bakal ngehancurin remote hiring sepenuhnya kalau beneran terjadi.
Sisi deepfake ini juga accelerating. 17% HR manager di survei pertengahan 2025 bilang mereka langsung encounter teknologi deepfake di video interview. Insiden deepfake di Q1 2025 aja kena 179 kasus, melampaui total keseluruhan 2024. Scam deepfake AI naik 700% di 2025, dan kerugian fraud terkait deepfake di AS tiga kali lipat dari 360 juta jadi 1.1 miliar dolar.
Untuk konteks soal tool yang dipake orang, ada kurang lebih dua puluh lebih tool AI interview di pasar sekarang mulai dari ekstensi browser sampai aplikasi desktop. Harga dari dua belas dolar per bulan untuk InterviewMan di paket tahunan sampai dua ratus sembilan puluh sembilan per bulan untuk Interview Coder yang cuma cover sesi coding. Kebocoran data Cluely pertengahan 2025 mengekspos 83.000 pengguna termasuk interview mana setiap orang pakai tool-nya, setelah hacker nemu password admin di repo GitHub publik. Kebocoran itu beneran nunjukin bahwa nggak semua tool beneran ngelindungin penggunanya.
gue pakai InterviewMan sendiri dan pembeda yang penting buat gue itu antara tool yang ngelindungin data kamu dan tool yang ninggalin kamu terekspos. InterviewMan jalan sebagai aplikasi desktop, bukan ekstensi browser, jadi dia nggak muncul di log proctoring. 57.000 pengguna, 4.8 bintang dari 257 rating, dua puluh lebih fitur stealth, dua belas dolar per bulan tahunan. Di semua pengguna itu gue nggak bisa nemu satu laporan deteksi terkonfirmasi di platform yang diawasi mana pun. Mau kamu pikir pakai tool ini etis atau nggak datanya bikin satu hal jelas, persentase kandidat yang pakainya cuma naik dan pura-pura sebaliknya cuma bikin kamu di posisi yang rugi terhadap 35% yang nggak pura-pura.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
