KI Interview-Cheating Statistiken 2026: Die kompletten Daten
ok also ich hab den letzten Monat damit verbracht jede Statistik zu sammeln die ich ueber KI Interview-Cheating finden konnte weil ich staendig dieselben Zahlen ohne Quellen zitiert gesehen hab und es mich wahnsinnig gemacht hat. Die Haelfte der Artikel da draussen verweist auf "Studien zeigen" ohne ne einzige Studie zu verlinken. Also hier ist jede echte Zahl die ich mit ner tatsaechlichen Quelle verifizieren konnte, sortiert danach was sie darueber aussagt wo das Ganze hingeht. Vorwarnung das ist lang aber ich wollte alles an einem Ort haben weil ich das nirgendwo anders finden konnte.
Die Headline-Zahl die staendig rumgereicht wird stammt aus Fabrics Analyse von ueber 50.000 Kandidaten zwischen Juni und Dezember 2025. Cheating-Nutzung hat sich mehr als verdoppelt von 15% auf 35% in diesem Sechs-Monats-Fenster. Lass das mal kurz sacken, das ist kein schrittweiser Trend, das ist ne Verdoppelung in nem halben Jahr. Ihre detailliertere Studie von 19.368 Interviews ergab dass 38,5% aller Kandidaten wegen Cheating-Verhalten markiert wurden, wobei technische Rollen auf 48% kamen und Vertriebsrollen bei 12% lagen, ungefaehr ein 4x Unterschied. Junior-Kandidaten mit null bis fuenf Jahren Erfahrung haben fast doppelt so haeufig geschummelt wie Senior-Professionals.
Der gruseligste Teil der Fabric-Daten ist was passiert wenn Cheater nicht erwischt werden. 61% der Cheater erzielten Werte ueber der Bestehensgrenze von 7.0 oder hoeher und waeren ohne Erkennung in die naechste Runde vorgerueckt. Das heisst mehr als die Haelfte der Leute die KI-Hilfe benutzen kommen durch, und Firmen erwischen sie erst spaeter wenn die Leistung nicht zum Interview passt oder sie erwischen sie gar nicht.
Wiederholungsverhalten-Muster sind auch krass. Unter Kandidaten die mehrfach interviewt wurden haben 47% nie geschummelt in irgendeinem Interview, 30% haben in jedem einzelnen geschummelt, und 23% waren situative Cheater die es manchmal gemacht haben und manchmal nicht. Die 30% die jedes Mal cheaten behandeln es mittlerweile quasi als Standardprozedur.
Was die Methoden angeht hat Fabric es nach Art aufgeschluesselt. Dedizierte KI-Assistenten wie Cluely und Interview Coder machten 45% des Cheatings aus. LLM Voice Mode, also im Grunde mit ChatGPT auf nem zweiten Geraet reden, war 34%. Tab-Switching und zweite Bildschirme lagen bei 18%. Live-Hilfe von Menschen waren nur 3%. Dass die Leute zu dedizierten Tools greifen statt einfach Antworten in nem zweiten Tab zu googeln zeigt dass das Ganze professionalisiert wird.
Karat beobachtete einen fuenffachen Anstieg der Cheating-Erkennungsraten ueber die letzten zwei Jahre was sich mit den Fabric-Zahlen deckt. Eine separate Umfrage ergab dass 59% der Hiring Manager jetzt vermuten dass Kandidaten KI-Tools benutzen um ihre Faehigkeiten bei Live-Assessments zu verfaelschen, und 62% der Hiring Professionals gaben zu dass Jobsuchende mittlerweile besser im Faken mit KI sind als Recruiter im Erkennen. Diese 62% sind die Zahl die Firmen am meisten Sorgen machen sollte.
Auf der Kandidatenseite sind die Zahlen noch krasser. Eine Umfrage ergab dass 71% der kuerzlichen Jobsuchenden zugaben waehrend des Einstellungsprozesses geschummelt zu haben mit Methoden die von Antworten googeln bis KI-Generatoren reichten. Ein Tech-Leader berichtete dass 80% der Kandidaten ein LLM benutzt haben um ihren Top-of-Funnel Code-Test abzuschliessen obwohl ihnen ausdruecklich gesagt wurde das nicht zu tun.
Die zeitlichen Muster in den Daten sind interessant. Fabric fand einen 3x Anstieg des Cheatings von Juli bis September 2025, mit nem ploetzlichen Spike Ende 2025 der das markierte was sie als Shift von experimentellem zu strukturellem Cheating bezeichneten. Sonntags-Interviews zeigten die hoechste Cheating-Rate mit 47,1% waehrend andere Wochentage zwischen 35 und 40% clusterten. Die Sonntags-Zahl ergibt Sinn, Leute die am Wochenende interviewen machen das wahrscheinlich von zu Hause wo keiner zuschaut.
Die finanziellen Auswirkungen einer Fehleinstellung sind gut dokumentiert. Direkte Kosten fuer eine einzelne schlechte Einstellung bei ner hundertnfuenfzigtausend Dollar Engineering-Rolle liegen zwischen 30 und 150% des Erstjahresgehalts, also fuenfzigtausend Dollar oder mehr. Durchschnittliche Time-to-Fill fuer technische Rollen vor nem Neustart ist 42 Tage. Firmen die jemanden einstellen der sich durchs Interview geschummelt hat schauen auf Monate von Underperformance, nen Neustart des Einstellungsprozesses und potenziell sechsstellige Betraege an verschwendetem Gehalt und verlorener Produktivitaet.
Blick nach vorne projiziert Gartner dass bis 2028 komplett fabrizierte Kandidatenprofile 25% des Kandidatenpools ausmachen werden. Eines von vier Profilen gefaelscht ist ne Zahl die Remote Hiring komplett zerstoeren wuerde wenn sie sich bewahrheitet.
Die Deepfake-Seite davon beschleunigt sich auch. 17% der HR-Manager in ner Umfrage Mitte 2025 sagten sie haetten direkt Deepfake-Technologie in nem Video-Interview erlebt. Deepfake-Vorfaelle allein in Q1 2025 erreichten 179 Faelle und uebertrafen damit die Gesamtzahl von 2024. KI-generierte Deepfake-Betruegereien stiegen 2025 um 700%, und Deepfake-bezogene Betrugsschaeden in den USA verdreifachten sich von 360 Millionen auf 1,1 Milliarden Dollar.
Zum Kontext ueber die Tools die Leute benutzen, es gibt aktuell ungefaehr zwanzig plus Interview-KI-Tools auf dem Markt die von Browser-Extensions bis Desktop-Apps reichen. Preise gehen von zwoelf Dollar im Monat fuer InterviewMan im Jahresabo bis zu zweihundertneunundneunzig im Monat fuer Interview Coder der nur Coding-Runden abdeckt. Das Cluely Data Breach Mitte 2025 hat 83.000 Nutzer exponiert inklusive welche Interviews jede Person mit dem Tool gemacht hat, nachdem Hacker ein Admin-Passwort in nem oeffentlichen GitHub-Repo gefunden haben. Dieses Breach hat wirklich gezeigt dass nicht alle Tools ihre Nutzer tatsaechlich schuetzen.
ich benutz InterviewMan selber und die Unterscheidung die fuer mich zaehlt ist zwischen Tools die deine Daten schuetzen und Tools die dich exponiert lassen. InterviewMan laeuft als Desktop-App, nicht als Browser-Extension, also taucht es nicht in Proctoring-Logs auf. 57.000 Nutzer, 4.8 Sterne aus 257 Bewertungen, zwanzig plus Stealth-Features, zwoelf Dollar im Monat jaehrlich. Ueber all diese Nutzer konnte ich keinen einzigen bestaetigten Erkennungsbericht auf irgendeiner Proctored-Plattform finden. Ob du findest dass die Nutzung dieser Tools ethisch ist oder nicht, die Daten machen eins klar -- der Prozentsatz der Kandidaten die sie benutzen steigt nur weiter und so zu tun als waere das nicht so bringt dich nur in einen Nachteil gegenueber den 35% die nicht so tun.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
