Leave a Review & Get 30% OFF - Limited Time Offer!

00:00:00
Guides

AI fraude statistieken bij sollicitaties 2026: complete data

Last updated: January 2, 2026|5 min read|By InterviewMan Team

AI Interview Spieken Statistieken 2026: De Complete Data

oké dus ik heb de afgelopen maand elke statistiek verzameld die ik kan vinden over AI-spieken bij interviews omdat ik steeds dezelfde cijfers zag zonder bronnen en het maakte me gek. De helft van de artikelen daarbuiten verwijst naar "studies tonen" zonder een enkele studie te linken. Dus hier is elk echt getal dat ik kon verifiëren met een daadwerkelijke bron, georganiseerd naar wat het je vertelt over waar dit heen gaat. Waarschuwing dit is lang maar ik wilde alles op een plek omdat ik dat nergens anders kon vinden.

Het kopcijfer dat steeds wordt rondgestuurd komt uit Fabric's analyse van meer dan 50.000 kandidaten tussen juni en december 2025. Het gebruik van spieken is meer dan verdubbeld van 15% naar 35% in dat halfjaar. Laat dat even bezinken, dat is geen geleidelijke trend, dat is een verdubbeling in een half jaar. Hun gedetailleerdere studie van 19.368 interviews vond dat 38,5% van alle kandidaten werd gemarkeerd voor spiekgedrag, waarbij technische rollen 48% scoorden en salesrollen 12%, ruwweg een 4x verschil. Junior kandidaten met nul tot vijf jaar ervaring spiekten bijna twee keer zo vaak als senior professionals.

Het engste deel van de Fabric-data is wat er gebeurt wanneer spiekers niet worden betrapt. 61% van de spiekers scoorden boven de slagingsdrempels van 7,0 of hoger en zouden zonder detectie door zijn gegaan naar de volgende ronde. Dat betekent dat meer dan de helft van de mensen die AI-hulp gebruiken erdoorheen komen, en bedrijven ze pas later betrappen wanneer prestaties niet overeenkomen met het interview of ze ze helemaal niet betrappen.

Herhaald gedragspatronen zijn ook wild. Onder kandidaten die meerdere keren interviewden, spiekten 47% nooit bij enig interview, 30% spiekten bij elk interview, en 23% waren situationele spiekers die het soms wel en soms niet deden. De 30% die elke keer spiekt behandelt het op dit punt eigenlijk als standaardprocedure.

Voor hoe ze het doen, splitste Fabric het op per methode. Toegewijde AI-assistenten zoals Cluely en Interview Coder waren goed voor 45% van het spieken. LLM voice mode, eigenlijk praten tegen ChatGPT op een tweede apparaat, was 34%. Tab wisselen en tweede schermen was 18%. Live menselijke hulp was slechts 3%. Het feit dat mensen overstappen naar toegewijde tools in plaats van gewoon antwoorden googlen op een tweede tab vertelt je dat dit geprofessionaliseerd wordt.

Karat observeerde een vijfvoudige toename in spiekdetectiepercentages over de afgelopen twee jaar wat overeenkomt met de Fabric-cijfers. Een apart onderzoek vond dat 59% van hiring managers nu vermoedt dat kandidaten AI-tools gebruiken om hun vaardigheden verkeerd voor te stellen tijdens live assessments, en 62% van hiring professionals gaf toe dat werkzoekenden nu beter zijn in faken met AI dan recruiters in het detecteren ervan. Dat 62% cijfer is degene die bedrijven het meest zou moeten zorgen baren.

Aan de kandidatenkant zijn de cijfers nog opvallender. Een onderzoek vond dat 71% van recente werkzoekenden toegaf te hebben gespiekt tijdens het aannameproces met methoden variërend van antwoorden googlen tot AI-generators gebruiken. Een techleider meldde dat 80% van de kandidaten een LLM gebruikte om hun top-of-funnel codetest af te maken ook al was hen expliciet gezegd dat niet te doen.

De temporele patronen in de data zijn interessant. Fabric vond een 3x toename in spieken van juli tot september 2025, met een plotselinge piek eind 2025 die markeerde wat zij noemden een verschuiving van experimenteel naar structureel spieken. Zondaginterviews toonden het hoogste spiekpercentage van 47,1% met andere weekdagen clustered tussen 35 en 40%. Het zondagcijfer slaat ergens op, mensen die in het weekend interviewen doen het waarschijnlijk vanuit huis zonder dat iemand meekijkt.

De financiële impact van een slechte aanname is goed gedocumenteerd. Directe kosten voor een enkele slechte aanname in een honderdvijftigduizend dollar engineering-rol variëren van 30 tot 150% van het eerste jaarsalaris, dus vijftigduizend dollar of meer. Gemiddelde tijd om te vullen voor technische rollen voor een herstart is 42 dagen. Bedrijven die iemand aannemen die zich er doorheen heeft gespiekt kijken naar maanden onderprestatie, een herstart van het aannameproces, en potentieel zes cijfers aan verspild salaris en verloren productiviteit.

Vooruitkijkend projecteert Gartner dat tegen 2028 volledig gefabriceerde kandidaatprofielen 25% van de kandidatenpool zullen uitmaken. Een op de vier profielen nep is een cijfer dat remote hiring compleet zou vernietigen als het uitkomt.

De deepfake-kant hiervan versnelt ook. 17% van HR-managers in een medio-2025 onderzoek zei dat ze direct deepfake-technologie waren tegengekomen in een video-interview. Deepfake-incidenten in Q1 2025 alleen al kwamen op 179 gevallen, meer dan het gehele 2024-totaal. AI-gegenereerde deepfake-scams stegen 700% in 2025, en deepfake-gerelateerde fraudeverliezen in de VS verdrievoudigden van 360 miljoen naar 1,1 miljard dollar.

Voor context over de tools die mensen gebruiken, er zijn ruwweg twintig plus interview AI-tools op de markt op dit moment, variërend van browserextensies tot desktop-apps. Prijzen lopen van twaalf dollar per maand voor InterviewMan op het jaarplan tot tweehonderdnegenennegentig per maand voor Interview Coder dat alleen coding-rondes dekt. Het Cluely-datalek medio 2025 legde 83.000 gebruikers bloot inclusief bij welke interviews elke persoon de tool gebruikte, nadat hackers een admin-wachtwoord vonden in een publieke GitHub-repo. Dat datalek liet echt zien dat niet alle tools hun gebruikers daadwerkelijk beschermen.

ik gebruik InterviewMan zelf en het onderscheid dat er voor mij toe doet is tussen tools die je gegevens beschermen en tools die je blootstellen. InterviewMan draait als desktop-app, niet als browserextensie, dus het verschijnt niet in proctoring-logs. 57.000 gebruikers, 4,8 sterren uit 257 beoordelingen, twintig plus stealth-functies, twaalf dollar per maand jaarlijks. Over al die gebruikers kon ik geen enkel bevestigd detectierapport vinden op enig bewaakt platform. Of je nu vindt dat het gebruik van deze tools ethisch is of niet, de data maakt een ding duidelijk, het percentage kandidaten dat ze gebruikt gaat alleen maar omhoog en doen alsof het niet zo is zet je op achterstand ten opzichte van de 35% die niet doet alsof.

Ready to Ace Your Next Interview?

Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.

ShareTwitterLinkedIn

Related Articles

Try InterviewMan Free

AI interview assistant. Undetectable.

Get Started