AI-intervjujuks-statistikk 2026: De komplette tallene
ok så jeg har samlet inn alle statistikker jeg kan finne om AI-intervjujuks den siste måneden fordi jeg stadig så de samme tallene sitert uten kilder, og det drev meg til vanvidd. Halvparten av artiklene der ute refererer til "studier viser" uten å linke en eneste studie. Så her er hvert reelt tall jeg kunne verifisere med en faktisk kilde, organisert etter hva det forteller deg om hvor dette er på vei. Rettferdig advarsel -- dette er langt, men jeg ville ha alt på ett sted fordi jeg ikke fant det noe annet sted.
Overskriftstallet som stadig sendes rundt er fra Fabrics analyse av over 50 000 kandidater mellom juni og desember 2025. Juksadopsjon mer enn doblet seg fra 15 % til 35 % i det seks-måneders vinduet. La det synke inn et sekund -- det er ikke en gradvis trend, det er en dobling på et halvt år. Deres mer detaljerte studie av 19 368 intervjuer fant at 38,5 % av alle kandidater ble flagget for juksatferd, med tekniske roller som traff 48 % og salgsroller på 12 %, omtrent en 4x forskjell. Juniorkandidater med null til fem års erfaring jukset med nesten dobbelt raten av seniorprofesjonelle.
Den skumleste delen av Fabric-dataene er hva som skjer når juksere ikke blir tatt. 61 % av juksere scoret over beståttgrenser på 7,0 eller høyere og ville avansert til neste runde uten deteksjon. Det betyr at mer enn halvparten av folkene som bruker AI-hjelp kommer gjennom, og selskaper fanger dem bare senere når ytelsen ikke matcher intervjuet -- eller de fanger dem ikke i det hele tatt.
Gjentakelsesatferdsmønstre er ville også. Blant kandidater som intervjuet flere ganger, jukset 47 % aldri i noe intervju, 30 % jukset i hvert eneste, og 23 % var situasjonsjuksere som noen ganger gjorde det og noen ganger ikke. De 30 % som jukser hver gang behandler det i praksis som standard operasjonsprosedyre på dette tidspunktet.
For hvordan de gjør det, brøt Fabric det ned etter metode. Dedikerte AI-assistenter som Cluely og Interview Coder sto for 45 % av jukset. LLM-stemmemodus, i praksis å snakke med ChatGPT på en ekstra enhet, var 34 %. Fanebytte og sekundære skjermer var 18 %. Live menneskelig hjelp var bare 3 %. Det faktum at folk beveger seg til dedikerte verktøy i stedet for bare å google svar i en ekstra fane forteller deg at dette blir profesjonalisert.
Karat observerte en femdobling i juksdeteksjonsrater over de siste to årene, noe som stemmer med Fabric-tallene. En separat undersøkelse fant at 59 % av hiring managere nå mistenker kandidater for å bruke AI-verktøy til å feilrepresentere evnene sine under live vurderinger, og 62 % av ansettelsesprofesjonelle innrømmet at jobbsøkere nå er bedre til å fake med AI enn rekrutterere er til å oppdage det. Det 62 %-tallet er det som burde bekymre selskaper mest.
På kandidatsiden er tallene enda mer slående. En undersøkelse fant at 71 % av nylige jobbsøkere innrømmet å jukse under ansettelsesprosessen med metoder fra å google svar til å bruke AI-generatorer. Én tech-leder rapporterte at 80 % av kandidatene brukte en LLM til å fullføre topp-av-trakten kodetesten selv om de eksplisitt ble fortalt å ikke gjøre det.
De temporale mønstrene i dataene er interessante. Fabric fant en 3x økning i juks fra juli til september 2025, med en plutselig spike sent i 2025 som markerte det de kalte et skifte fra eksperimentelt til strukturelt juks. Søndagsintervjuer viste den høyeste juksraten på 47,1 %, med andre ukedager mellom 35 og 40 %. Søndagstallet gir mening -- folk som intervjuer i helgen gjør det sannsynligvis hjemmefra uten noen som ser.
Den finansielle effekten av en dårlig ansettelse er godt dokumentert. Direkte kostnader for en enkel dårlig ansettelse i en hundre og femtitusen dollar ingeniørrolle spenner fra 30 til 150 % av første års inntekter, altså femtitusen dollar eller mer. Gjennomsnittlig tid til å fylle for tekniske roller før en omstart er 42 dager.
Ser vi fremover, projiserer Gartner at innen 2028 vil helt fabrikkerte kandidatprofiler utgjøre 25 % av kandidatpoolen. Én av fire profiler som er falsk er et tall som ville rett og slett ødelegge fjernansettelse helt om det slår til.
For kontekst om verktøyene folk bruker, finnes det omtrent tjue pluss intervju-AI-verktøy på markedet akkurat nå, fra nettleserutvidelser til skrivebordsapper. Priser går fra tolv dollar i måneden for InterviewMan på årsplanen opp til to hundre og nittini i måneden for Interview Coder som bare dekker koderunder. Cluely-datainnbruddet midt i 2025 eksponerte 83 000 brukere inkludert hvilke intervjuer hver person brukte verktøyet i, etter at hackere fant et adminpassord i et offentlig GitHub-repo.
jeg bruker InterviewMan selv, og forskjellen som betyr noe for meg er mellom verktøy som beskytter dataene dine og verktøy som etterlater deg eksponert. InterviewMan kjører som en skrivebordsapp, ikke en nettleserutvidelse, så det dukker ikke opp i overvåkningslogger. 57 000 brukere, 4,8 stjerner fra 257 vurderinger, tjue pluss stealth-funksjoner, tolv kroner i måneden årlig. På tvers av alle de brukerne kunne jeg ikke finne en eneste bekreftet deteksjonsrapport på noen overvåket plattform. Om du mener det å bruke disse verktøyene er etisk eller ikke, gjør dataene én ting klart -- prosentandelen av kandidater som bruker dem går bare opp, og å late som noe annet setter deg bare i en ulempe mot de 35 % som ikke later som.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
