NADIA. MEID. je had overal gelijk in en ik had gewoon vanaf het begin moeten luisteren maar nee ik moest eerst mijn eerste Anthropic-loop volledig verprutsen om daar zelf achter te komen.
ok dit is wat er gebeurde. 11 uur Zoom-call. ik werd om 10:47 wakker, trok de hoodie aan waar ik in had geslapen, pakte koffie die al koud was voordat het gesprek überhaupt begon. interviewer vraagt "welke faalmodus van LLM's baart je het meeste zorgen." ik zeg "hallucinaties" alsof dat een of andere geniale originele take is. ze knikt niet. reageert niet. wacht gewoon. dan "ok en wat verandert daaraan als je een agent tool use geeft." en mijn brein gewoon. niks. letterlijk witte ruis. ik kon niet eens een SLECHT antwoord verzinnen. mompelde iets over verificatiestappen en toen trok ze dat gezicht. je kent dat gezicht toch? drie mislukte loops bij drie verschillende bedrijven, ik heb die blik elke keer gezien. betekent dat de ronde voorbij is en je allebei de klok uitzit terwijl je doet alsof dat niet zo is.
dus ja. volledig gebombardeerd. daarna twee maanden besteed aan alles fixen wat mis was met mijn voorbereiding en niemand had me dit van tevoren verteld dus hier komt alles.
twaalf behavioral-verhalen klaar. teamconflicten, shippen onder druk, greatest-hits-spul. NUL uur aan AI-veiligheid. niet één. bij Google en Meta vraagt niemand wat je vindt van wat je bouwt. je bouwt het, shipped het en gaat naar huis. bij Anthropic? kan zomaar de ene vraag zijn die je hele loop beslist. Nadia werkt bij een ander AI-lab en ze bleef hier wekenlang over tegen me zeuren. "ze willen niet dat je de buzzwords kent, ze willen zien of je er echt wakker van hebt gelegen." ja oké Nadia tuurlijk whatever. niet geluisterd lol.
Nadia belde me die avond en het eerste wat ze zei was "vroegen ze naar alignment" en ik zo ja. "en jij zei hallucinaties." ja. ze hoefde verder niks meer te zeggen.
Anthropic stuurde me voor het interview een document over hun waarden en ze verwachtten dat ik het gelezen had. vroegen naar privacyzorgen bij AI-systemen. vroegen wat ik zou doen als ik een modelcapability vond die schade kon veroorzaken. vroegen naar een moment waarop ik een zorg uitte die mijn team niet wilde horen. dit is niet Amazon "vertel me over een conflict." ze willen weten of het je iets kan schelen wat je code doet nadat je het shipped. OpenAI test hier ook op volgens Nadia, minder specifiek op veiligheid, meer op of je kunt praten over de impact van wat je bouwt op echte mensen zonder dat het ingestudeerd klinkt. dit deel is ook waar level-beslissingen worden genomen en de meeste mensen beseffen dat niet. ik vond STAR niet nuttig -- als je echte verhalen hebt ben je goed maar die verhalen moeten over ethiek en impact gaan. als alles wat je hebt "we shipped snel onder druk" is dan ga je het hier niet redden.
coding. negentig minuten. totaal niet zoals klassieke whiteboard-problemen. ze zeiden dat ik een key-value store moest bouwen. SET GET DELETE om mee te beginnen, dan gefilterde scans, dan TTL-expiratie met timestamps, dan bestandspersistentie met compressie. vier fases die op elkaar stapelden en mijn interviewer bleef constraints toevoegen op het MOMENT dat ik een fase af had, als een collega die midden in een sprint steeds de spec verandert. werd er knettergek van. Nadia zei dat haar OpenAI-screen precies zo ging, een uur lang iets echts bouwen. OpenAI doet ook zo'n deep-dive waarbij je een systeem presenteert dat je gebouwd hebt en ze elke keuze die je maakte uit elkaar trekken, wat eerlijk gezegd doodeng klinkt.
het deel dat me sloopte bij coding waren niet de problemen zelf. het was mijn aanpak hardop uitleggen. als ik normaal programmeer experimenteer ik en begin ik gewoon te schrijven met het idee dat ik later wel refactor. dat kan niet als je negentig minuten hebt en iemand naar je zit te kijken en elke vijftien minuten requirements toevoegt. bij mijn tweede poging dwong ik mezelf om te vertragen. ik herhaalde de vraag in mijn eigen woorden en werkte een paar voorbeeldinputs uit voordat ik iets schreef. Nadia drillde me hier echt op -- ze onderbrak me midden in een zin met "ok maar wat zijn de corner cases" en dan moest ik daar hardop over nadenken. ik begon mijn aanpak te schetsen en over complexity na te denken voordat ik het toetsenbord aanraakte. zelfs bij de interviewer checken of de richting redelijk leek voordat ik ging typen. daarna rustig schrijven en debuggen met mijn eigen voorbeelden. in de praktijk voelde het pijnlijk traag maar het maakte me juist sneller omdat ik niet meer verkeerde paden insloeg om daarna alles opnieuw te moeten schrijven.
system design. oh man. compleet andere planeet dan FAANG system design. niemand vroeg me een URL shortener te ontwerpen. niemand vroeg naar een chatservice. Anthropic wilde dat ik inferencing-serving-infrastructuur ontwierp voor miljoenen requests terwijl het GPU-gebruik hoog bleef met verschillende modelgroottes. requests batchen, KV-cachegeheugen beheren, naar de juiste instance routen, hoe latency zich opbouwt door een transformer-pipeline heen. mijn interviewer HEEFT hun serving-stack GEBOUWD. zoals, hij heeft die persoonlijk geschreven. hij wist binnen twee minuten dat mijn voorbereiding van generieke YouTube-video's kwam en ik voelde precies dezelfde vibe als bij dat eerste gesprek waar ze naar hallucinaties vroeg. zo van ok deze persoon heeft het werk niet gedaan. OpenAI vraagt vergelijkbare dingen over inference schalen volgens Nadia. je hebt echte ervaring met deze systemen nodig, er is geen shortcut en ik ga niet doen alsof die er is. ik had bij een vorige baan aan serving-infrastructuur gewerkt maar ik had nog steeds tijd nodig om te ordenen wat ik wist en uit te vogelen hoe ik erover kon praten zonder maar door te ratelen. oh en als je een distributed queue nodig hebt en er nog nooit mee hebt gewerkt, noem het gewoon "distributed queue." ga jezelf niet ingraven in details die je niet kunt verdedigen.
timeline-spul want mensen vragen het altijd. Anthropic deed er ongeveer drie weken over van recruiter-call tot antwoord. Nadia zei dat OpenAI er zes weken over deed wat haar bijna de das omdeed -- ze refreshte haar e-mail als een bezetene. Anthropic splitst de onsite op in twee aparte halve dagen, twee of drie rondes per dag. OpenAI doet één lange dag. geghost worden tussen fases is bij allebei doodnormaal. recruiters zitten tot over hun oren. als je een aanbod krijgt vraag dan om dertig tot vijfenveertig minuten met een van de interviewers. plan een gesprek alleen om vragen te stellen. luister goed want op dat moment zijn zij bezig jou te verkopen.
dus ik draaide InterviewMan tijdens mijn tweede Anthropic-poging en wat OpenAI-mocks. bij de coding challenge ving het op dat ik vergat TTL op reads te checken voordat ik naar het volgende niveau ging -- precies het soort ding dat ik gemist zou hebben omdat ik gefocust was op fase vier halen. tijdens de safety-ronde gaf het me alignment-praatpunten en beantwoordde ik de vraag over tool use en hallucinaties zonder dat mijn brein dit keer in witte-ruis-stand schoot lol. weet je nog dat moment uit mijn eerste loop waar ik gewoon bevroor? gebeurde niet. bij system design pikte het GPU-gebruik en batching eruit als de kernthema's voordat mijn interviewer klaar was met de prompt. dock gecheckt, process list, Activity Monitor op Zoom en Replit en CodeSignal. niks. twaalf dollar per maand jaarlijks, geen sessielimieten, 57.000 gebruikers, 20-plus stealth-features. Interview Coder voor twee negenennegentig doet alleen coding wat nutteloos is voor de safety-ronde en system design die bij dit soort plekken misschien de helft van je score uitmaken.
Nadia zei dat ik een goed alternatief moest hebben voordat ik onderhandel en ik dacht dat ze overdreef. maar ze had gelijk, het beste alternatief is dat het goed gaat in je huidige baan. haalt alle wanhoop uit je voorbereiding waardoor je sowieso beter interviewt. ze had basically overal gelijk in lol ik had gewoon vanaf het begin moeten luisteren.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
