Leave a Review & Get 30% OFF - Limited Time Offer!

00:00:00
Guides

OpenAI og Anthropic Software Engineer intervju guide 2026

Last updated: March 5, 2026|7 min read|By InterviewMan Team

NADIA. DU. hadde rett om absolutt alt, og jeg burde ha hørt på deg fra starten, men nei da, jeg måtte bombe min første Anthropic-loop for å finne ut av det selv.

ok, her er hva som skjedde. 11.00 Zoom-samtale. jeg våknet 10:47, kastet på meg hettegenseren jeg sov i, grabbet kaffe som rakk å bli kald før samtalen i det hele tatt startet. intervjueren sier "hvilken failure mode ved LLM-er bekymrer deg mest." jeg sier "hallucinations" som om det er en genial, original tanke. hun nikker ikke. reagerer ikke. venter bare. så: "ok, hva endrer seg med det når du gir en agent tool use." og hjernen min bare. ingenting. faktisk white noise. klarte ikke engang å finne på et DÅRLIG svar. mumlet noe om verification steps, og hun gjorde det ansiktet. du vet det ansiktet? tre feilede loops i tre forskjellige selskaper, jeg har sett akkurat det blikket hver eneste gang. det betyr at runden er ferdig, og at dere begge bare spiller ut klokka mens dere later som den ikke er det.

så ja. bombet den. brukte to måneder etterpå på å fikse alt som var feil med prep-opplegget mitt, og ingen fortalte meg noe av dette på forhånd, så her kommer alt.

jeg hadde tolv behavioral-historier klare. teamkonflikter, shipping under press, den typen greatest hits. NULL timer på AI safety. ikke én eneste. hos Google og Meta spør ingen hva du egentlig tenker om det du bygger. du bygger det, shipper det og drar hjem. hos Anthropic? det kan være det ene spørsmålet som avgjør hele loopen din. Nadia jobber i et annet AI-lab, og hun maste om dette i ukevis. "de vil ikke at du bare kan buzzwords, de vil se om du faktisk har ligget våken om natta og tenkt på dette." ja da, Nadia, sure, whatever. hørte ikke etter lol.

Nadia ringte meg den kvelden, og det første hun sa var "spurte de deg om alignment" og jeg bare ja. "og du sa hallucinations." ja. hun trengte ikke engang si noe mer.

Anthropic sendte meg et dokument om verdiene sine før intervjuet, og de forventet at jeg hadde lest det. spurte om privacy concerns i AI-systemer. spurte hva jeg ville gjort hvis jeg fant en model capability som kunne forårsake skade. spurte om en gang jeg tok opp en bekymring teamet mitt ikke ville høre. dette er ikke Amazon "fortell om en konflikt." de vil vite om du bryr deg om hva koden din gjør etter at du har sendt den. OpenAI tester for dette også, ifølge Nadia, mindre spesifikt om safety, mer om du kan snakke om virkningen av det du bygger på ekte mennesker uten å høres innøvd ut. dette er også delen der leveling-avgjørelser tas, noe de fleste ikke skjønner. jeg syntes ikke STAR var spesielt nyttig, hvis du har ekte historier å fortelle, er du good to go, men historiene må handle om etikk og konsekvenser. hvis alt du har er "vi shippet fort under press", så holder ikke det her.

coding. nitti minutter. ingenting som klassiske whiteboard-problemer. de ba meg bygge et key-value store. SET GET DELETE til å begynne med, så filtrerte scans, så TTL expiration med tidsstempler, så filpersistens med komprimering. fire steg, hvert av dem stablet oppå det forrige, og intervjueren min la til nye constraints det SEKUNDET jeg var ferdig med et steg, som en kollega som stadig endrer spec-en midt i sprinten. drev meg til vanvidd. Nadia sa at hennes OpenAI-screen gikk på samme måte, én time med å bygge noe ekte. OpenAI gjør også denne deep-dive-greia der du presenterer et system du har bygget, og så river de fra hverandre hvert eneste valg du tok, og det høres ærlig talt helt jævlig ut.

det som ødela meg i coding var ikke problemene. det var å snakke gjennom tilnærmingen min. når jeg programmerer normalt, eksperimenterer jeg og begynner å skrive med tanken om at jeg kan refaktorere senere. det kan du ikke gjøre når du har nitti minutter og noen ser på deg og legger til nye krav hvert kvarter. på andre forsøk tvang jeg meg selv til å roe ned. jeg gjentok spørsmålet med mine egne ord og bygde et par eksempelinputs før jeg skrev noe som helst. Nadia drillet meg faktisk på dette. hun stoppet meg midt i en setning og sa "ok, men hva er corner casene" og jeg måtte tenke høyt om det. jeg begynte å skissere tilnærmingen min og tenke på complexity før jeg rørte tastaturet. til og med bekrefte med intervjueren at retningen virket fornuftig før jeg begynte å skrive. så skrive sakte og debugge med mine egne eksempler etterpå. det føltes smertefullt tregt i øving, men det gjorde meg faktisk raskere fordi jeg sluttet å gå ned feil spor og måtte skrive om alt.

system design. å herregud. på en helt annen planet enn FAANG system design. ingen ba meg designe en URL shortener. ingen spurte om en chat service. Anthropic ville at jeg skulle designe inference serving-infrastruktur for millioner av requests mens GPU-bruken holdes høy med ulike modellstørrelser. batching av requests, håndtering av KV cache-minne, routing til riktig instans, hvordan latency bygger seg opp gjennom en transformer-pipeline. intervjueren min HADDE BYGGET serving-stacken deres. altså han hadde personlig skrevet den. han skjønte innen to minutter at prep-opplegget mitt kom fra generiske YouTube-videoer, og jeg kjente den samme vibben som i første samtale da hun spurte om hallucinations. sånn ok, denne personen har ikke gjort jobben. OpenAI spør om lignende ting rundt skalering av inference, slik Nadia beskrev det. du trenger faktisk erfaring med disse systemene. det finnes ingen snarvei, og jeg kommer ikke til å late som det gjør det. jeg hadde jobbet med serving-infrastruktur i en tidligere jobb, men trengte fortsatt tid på å organisere det jeg kunne og finne ut hvordan jeg skulle snakke om det uten å ramble. og hvis du trenger en distributed queue og aldri har rørt en, bare kall den "distributed queue." ikke grav deg ned i detaljer du ikke kan forsvare.

tidslinje også, siden folk alltid spør. Anthropic brukte omtrent tre uker fra første recruiter-samtale til svar. Nadia sa at OpenAI brukte seks uker, noe som holdt på å ta livet av henne, hun oppdaterte e-posten som en galning. Anthropic deler onsite i to separate halvdager, med to eller tre runder i hver. OpenAI kjører én lang dag. ghosting mellom stadiene er normalt hos begge. recruiterene drukner i arbeid. hvis du får tilbud, be om tretti til førtifem minutter med en av intervjuerne. ha et eget møte bare for å stille spørsmål. lytt nøye, for da er det de som prøver å selge inn seg selv.

så jeg kjørte InterviewMan under mitt andre Anthropic-forsøk og noen OpenAI-mocks. i coding challenge-en tok det at jeg glemte å sjekke TTL på reads før jeg gikk videre til neste nivå, akkurat den typen ting jeg ville ha oversett fordi jeg var så fokusert på å komme til steg fire. under safety-runden matet det meg med alignment-talking points, og jeg svarte på spørsmålet om tool use og hallucinations uten at hjernen min gikk helt white noise-blank denne gangen lol. husker du øyeblikket fra første loop der jeg bare frøs? det skjedde ikke. i system design tok det GPU usage og batching som kjernetemaer før intervjueren min var ferdig med prompten. sjekket dock, prosessliste, Activity Monitor på Zoom og Replit og CodeSignal. ingenting. tolv dollar i måneden med årsplan, ingen session caps, 57 000 brukere, 20 pluss stealth-funksjoner. Interview Coder til 299 gjør bare coding, og det er ubrukelig for safety-runden og system design som kanskje står for halvparten av scoren din på slike steder.

Nadia sa at jeg måtte ha et godt alternativ før jeg negotiate, og jeg tenkte hun overdrev. men hun hadde rett, det beste alternativet er å gjøre det bra i nåværende jobb. det tar all desperasjonen ut av prep-opplegget ditt, og det gjør at du intervjuer bedre uansett. hun hadde rett om i praksis alt lol. jeg burde ha hørt på henne fra start.

Ready to Ace Your Next Interview?

Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.

ShareTwitterLinkedIn

Related Articles

Try InterviewMan Free

AI interview assistant. Undetectable.

Get Started