NADIA. FATĂ. ai avut dreptate în toate și trebuia să te ascult de la început dar nu, a trebuit să dau cu bâta-n baltă la primul meu loop Anthropic ca să-mi dau seama singur.
ok uite ce s-a întâmplat. apel Zoom la 11 dimineața. m-am trezit la 10:47, am pus pe mine hanoracul în care dormisem, am luat cafeaua care s-a răcit înainte să înceapă apelul. interviurul zice "ce mod de eșec al LLM-urilor te îngrijorează cel mai mult." eu zic "halucinațiile" de parcă ar fi o părere genială și originală. ea nu dă din cap. nu reacționează. așteaptă. apoi "ok ce se schimbă la asta când dai unui agent acces la tool use." și creierul meu pur și simplu. nimic. zgomot alb propriu-zis. nu puteam să vin nici măcar cu un răspuns PROST. am mormăit ceva despre pași de verificare și ea a făcut fața aia. știi fața? trei loop-uri eșuate la trei companii diferite, am văzut exact privirea aia de fiecare dată. înseamnă că runda s-a terminat și amândoi trageți de timp prefăcându-vă că nu e așa.
deci da. am dat-o în bară. am petrecut două luni după aia reparând tot ce era greșit cu pregătirea mea și nimeni nu mi-a zis nimic din astea înainte, așa că le pun pe toate aici.
douăsprezece povești comportamentale pregătite. conflicte în echipă, livrare sub presiune, greatest hits gen. ZERO ore pe AI safety. niciuna. la Google și Meta nimeni nu te întreabă ce crezi despre ce construiești. construiești, livrezi și pleci acasă. la Anthropic? s-ar putea să fie singura întrebare care-ți decide tot loop-ul. Nadia lucrează la un alt lab de AI și a tot țipat la mine despre asta săptămâni întregi. "nu vor să știi buzzword-urile, vor să vadă dacă chiar ai pierdut nopți din cauza asta." da ok Nadia sigur ce vrei tu. n-am ascultat lol.
Nadia m-a sunat în seara aia și primul lucru pe care l-a zis a fost "te-au întrebat despre alignment" și eu am zis da. "și tu ai zis halucinații." da. nici nu a mai trebuit să zică altceva.
Anthropic mi-a trimis un document despre valorile lor înainte de interviu și se așteptau să-l fi citit. m-au întrebat despre preocupări legate de confidențialitate în sistemele AI. m-au întrebat ce aș face dacă aș descoperi o capabilitate a modelului care ar putea cauza daune. m-au întrebat despre o situație în care am ridicat o problemă pe care echipa mea nu voia s-o audă. asta nu e Amazon "povestește-mi despre un conflict." vor să știe dacă te interesează ce face codul tău după ce-l livrezi. OpenAI testează și ei pentru asta din ce zice Nadia, mai puțin despre safety specific, mai mult despre dacă poți vorbi despre impactul a ceea ce construiești asupra oamenilor reali fără să suni repetat. partea asta e și unde se iau deciziile de leveling, lucru pe care majoritatea oamenilor nu-l realizează. nu mi s-a părut STAR util, dacă ai povești reale de spus ești ok dar poveștile trebuie să fie despre etică și impact, dacă tot ce ai e "am livrat repede sub presiune" asta nu o să fie suficient aici.
coding. nouăzeci de minute. nimic asemănător cu problemele clasice de whiteboard. mi-au zis să construiesc un key-value store. SET GET DELETE la început, apoi scanări filtrate, apoi expirare TTL cu timestamps, apoi persistență pe fișier cu compresie. patru etape fiecare construită pe precedenta și interviurul meu tot adăuga constrângeri în SECUNDA în care terminam o etapă, ca un coleg care tot schimbă spec-ul pe parcursul sprint-ului. m-a scos din minți. Nadia a zis că screen-ul ei la OpenAI a mers la fel, o oră construind ceva real. OpenAI mai face și un deep-dive în care prezinți un sistem pe care l-ai construit și ei distrug fiecare decizie pe care ai luat-o, ceea ce sincer sună terifiant.
partea care m-a distrus la coding nu au fost problemele. a fost să vorbesc despre abordarea mea. când fac programare normală experimentez și încep să scriu cu ideea că o să refactorizez mai târziu. nu poți face asta când ai nouăzeci de minute și cineva care se uită la tine și adaugă cerințe la fiecare cincisprezece minute. la a doua încercare m-am forțat să încetinesc. gen repetam întrebarea cu cuvintele mele și construiam câteva exemple de input înainte să scriu ceva. Nadia chiar m-a antrenat pe asta, mă oprea la jumătatea propoziției și zicea "ok dar care sunt cazurile limită" și trebuia să mă gândesc cu voce tare. am început să-mi schițez abordarea și să mă gândesc la complexitate înainte să ating tastatura. chiar și să confirm cu interviurul că direcția pare rezonabilă înainte să încep să tastez. apoi să scriu încet și să fac debugging cu propriile mele exemple după. s-a simțit dureros de lent în practică dar de fapt m-a făcut mai rapid pentru că nu mai mergeam pe drumuri greșite ca să fiu nevoit să rescriu totul.
system design. vai. pe o planetă complet diferită față de system design la FAANG. nimeni nu m-a rugat să proiectez un URL shortener. nimeni nu m-a întrebat despre un chat service. Anthropic a vrut să proiectez infrastructură de inference serving pentru milioane de cereri menținând utilizarea GPU-ului ridicată cu dimensiuni diferite de model. batching requests, gestionarea memoriei KV cache, rutare către instanța potrivită, cum se acumulează latența printr-un pipeline transformer. interviurul meu CONSTRUISE stack-ul lor de serving. adică el personal l-a scris. a știut în două minute că pregătirea mea venea din videoclipuri generice de pe YouTube și am simțit aceeași energie ca la primul apel unde ea m-a întrebat despre halucinații. gen ok persoana asta nu și-a făcut temele. OpenAI întreabă lucruri similare despre scalarea inference-ului din ce a descris Nadia. ai nevoie de experiență reală cu aceste sisteme, nu există shortcut și n-o să mă prefac că există. lucrasem pe infrastructură de serving la un job anterior dar tot aveam nevoie de timp să-mi organizez ce știam și să-mi dau seama cum să vorbesc despre asta fără să divaghez. și dacă ai nevoie de un distributed queue și n-ai atins niciodată unul, numește-l pur și simplu "distributed queue." nu te îngropa în detalii pe care nu le poți apăra.
chestii legate de timeline pentru că lumea întreabă mereu. Anthropic a durat cam trei săptămâni de la apelul cu recruiterul până la răspuns. Nadia a zis că OpenAI a durat șase săptămâni ceea ce aproape a omorât-o, dădea refresh la email ca o nebună. Anthropic împarte onsite-ul în două sesiuni separate de jumătate de zi, două sau trei runde fiecare. OpenAI face o singură zi lungă. ghosting-ul între etape e normal la amândouă. recruiterii sunt îngropați. dacă primești o ofertă cere treizeci până la patruzeci și cinci de minute cu unul dintre interviuri. ai o întâlnire doar pentru a pune întrebări. ascultă atent pentru că în punctul ăla ei te vând pe tine.
deci am folosit InterviewMan în a doua mea încercare la Anthropic și câteva mock-uri OpenAI. la coding challenge a prins că am uitat să verific TTL la citiri înainte să trec la nivelul următor, exact genul de lucru pe care l-aș fi ratat pentru că eram concentrat să ajung la etapa patru. în runda de safety mi-a dat talking points despre alignment și am răspuns la întrebarea despre tool-use-and-hallucinations fără ca creierul meu să facă ecran alb de data asta lol. vă amintiți momentul ăla din primul meu loop când am înghețat? nu s-a mai întâmplat. la system design a prins GPU usage și batching ca subiecte principale înainte ca interviurul meu să termine prompt-ul. am verificat dock, lista de procese, Activity Monitor pe Zoom și Replit și CodeSignal. nimic. $12 pe lună anual, fără limite de sesiuni, 57,000 de utilizatori, 20 plus funcții stealth. Interview Coder la $299 face doar coding ceea ce e inutil pentru runda de safety și system design care contează cam jumătate din scorul tău la aceste companii.
Nadia mi-a zis să am o alternativă bună înainte să negociez și am crezut că exagerează. dar a avut dreptate, cea mai bună alternativă e să te descurci bine la jobul actual. scoate toată disperarea din pregătire ceea ce te face să dai interviuri mai bine oricum. a avut dreptate cam în tot lol trebuia s-o ascult de la început.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
