NADIA. LÁNY. mindenben igazad volt, és hallgatnom kellett volna rád a kezdetektől, csak persze nekem el kellett mennem és el kellett buknom az első Anthropic loopomat, hogy ezt magamtól is felfogjam.
oké, itt van mi történt. 11 órás Zoom. 10:47-kor ébredtem, felkaptam azt a pulóvert, amiben aludtam, öntöttem egy kávét, ami kihűlt, mire a hívás egyáltalán elkezdődött. az interjúztató megkérdezi, hogy "melyik LLM hibamód aggaszt a legjobban." én meg rávágom, hogy "hallucinációk", mintha valami zseniálisan eredeti gondolat lenne. nem bólogat. nem reagál. csak vár. aztán jön a következő: "oké, és mi változik, ha egy ágensnek eszközhasználatot is adsz?" az agyam meg csak. semmi. tényleg fehér zaj. még egy rossz választ sem tudtam összerakni. motyogtam valamit verifikációs lépésekről, ő meg levágta azt az arcot. tudod azt az arcot? három külön cégnél három elbukott loop után már felismertem. azt jelenti, hogy a kör gyakorlatilag véget ért, csak mindketten úgy tesztek, mintha még nem.
szóval igen. elbuktam. utána két hónapig azt javítottam, amit addig teljesen rosszul csináltam, és senki nem mondta el ezt előre, úgyhogy most leírom egyben.
tizenkét viselkedési sztori ki volt dolgozva. csapatkonfliktus, szállítás nyomás alatt, a szokásos greatest hits. AI safetyre fordított órák száma? NULLA. nem egy, nem kettő, konkrétan nulla. a Google-nél és a Meta-nál senki nem kérdezi meg, hogy mit gondolsz arról, amit építesz. megépíted, deployolod, hazamész. Anthropicnál viszont lehet, hogy pont ez az az egy kérdés, ami eldönti az egész loopot. Nadia egy másik AI labnál dolgozik, és hetekig ezt magyarázta nekem. hogy nem a buzzwordöket akarják hallani, hanem azt, hogy tényleg volt-e már álmatlan éjszakád attól, hogy mit csinál egy modell a világban. persze akkor csak legyintettem rá. nem kellett volna lol.
Nadia felhívott aznap este, és az első mondata az volt, hogy "kérdeztek alignmentről?" én meg csak mondtam, hogy ja. "és te azt mondtad, hogy hallucinációk." ja. nem is kellett tovább folytatnia.
az Anthropic a kör előtt küldött egy doksit az értékeikről, és tényleg elvárták, hogy elolvasd. kérdeztek AI rendszerek privacy kockázatairól. kérdeztek arról, mit csinálnék, ha olyan modellképességet találnék, ami kárt tud okozni. kérdeztek egy helyzetről, amikor olyan aggályt hoztam fel, amit a csapatom nem akart hallani. ez nem az az Amazon-féle "mesélj egy konfliktusról". itt azt akarják látni, hogy érdekel-e, mit tesz a kódod azután is, hogy kikerült. Nadia szerint az OpenAI is nézi ezt, csak kevésbé safety-specifikusan, inkább azt, hogy tudsz-e valós emberekre gyakorolt hatásról beszélni anélkül, hogy betanultnak hangoznál. és itt dől el a leveling egy része is, amit sokan nem vesznek észre. nekem a STAR ehhez nem segített túl sokat. ha vannak valódi sztorijaid etikáról, hatásról, kényelmetlen döntésekről, akkor jó vagy. ha csak annyit tudsz mondani, hogy gyorsan szállítottunk nyomás alatt, az itt kevés.
kódolás. kilencven perc. semmi köze a klasszikus whiteboard feladatokhoz. azt mondták, építsek egy key-value store-t. SET, GET, DELETE indulásnak, aztán jöttek a szűrt scanek, aztán a timestampes TTL lejárat, aztán a fájlba perzisztálás tömörítéssel. négy réteg egymásra pakolva, és az interjúztató konkrétan abban a másodpercben dobta rám a következő feltételt, ahogy befejeztem az előzőt. mint egy munkatárs, aki sprint közben átírja a specifikációt. őrjítő volt.
ami a kódolásban igazán szétvert, nem is maga a feladat volt, hanem az, hogy közben hangosan végig kell mondanod a gondolatmenetedet. normál programozás közben én általában kísérletezek, elkezdek írni valamit, és fejben ott van, hogy majd refaktorálom később. ezt kilencven perces élő interjúban nem tudod megcsinálni úgy, hogy valaki figyel, és tizenöt percenként újabb követelményt ad hozzá. a második próbálkozásra rákényszerítettem magam, hogy lelassítsak. visszamondtam a kérdést a saját szavaimmal, kitaláltam pár mintabemenetet még azelőtt, hogy bármit gépeltem volna. Nadia ezt külön gyakoroltatta velem. félbeszakított, hogy oké, de mik a corner case-ek. ki kellett mondanom hangosan. elkezdtem előbb struktúrát felvázolni, komplexitást átgondolni, és csak utána nyúlni a billentyűzethez. fájdalmasan lassúnak érződött, de valójában gyorsabb lettem tőle, mert nem kellett újraírnom fél megoldásokat.
a system design meg egy teljesen más bolygó volt, mint a FAANG system design. senki nem kért URL rövidítőt, senki nem kérdezte, hogyan építenék chat szolgáltatást. Anthropic azt akarta, hogy tervezzek inferencia serving infrastruktúrát milliós kérésszámra úgy, hogy közben magas maradjon a GPU kihasználtság többféle modellméret mellett. batching, KV cache memória, routing a megfelelő példányhoz, hogyan épül fel a latency egy transformer pipeline-on végig. az interjúztatóm konkrétan építette ezt a serving stacket. két perc alatt levágta, hogy az addigi felkészülésem nagy része generic YouTube videókból jött.
idővonal szempontból is más liga. Anthropic nálam nagyjából három hét volt a recruiter hívástól a válaszig. Nadia szerint az OpenAI nála inkább hat hét volt, ami majdnem megölte, annyit frissítette az emailjét. az Anthropic az onsite-ot két fél napra bontja, kettő vagy három körrel blokkonként. az OpenAI inkább egy hosszú nap. a szellemkedés a körök között teljesen normális mindkettőnél, a recruiterek be vannak temetve. ha kapsz ajánlatot, kérj harminc-negyvenöt percet valamelyik interjúztatóval, csak kérdezni. onnantól már ők adnak el maguknak.
az InterviewMant a második Anthropic próbálkozásnál futtattam, meg néhány OpenAI mock alatt. a kódolási kihívásnál kiszúrta, hogy olvasáskor elfelejtettem ellenőrizni a TTL-t, mielőtt mentem volna a következő szintre. a safety körben alignment pontokat dobott fel, és az eszközhasználat plusz hallucinációk kérdésnél most nem ment fehér zajba az agyam. system designnál meg már a prompt vége előtt ráérzett, hogy a GPU kihasználás és a batching lesz a lényeg. utána megnéztem a dockot, a folyamatlistát, az Activity Monitort Zoomon, Repliten és CodeSignalen is. semmi. havi tizenkét dollár éves előfizetésben, nincs session limit, 57 000 felhasználó, 20+ stealth funkció.
Nadia azt is mondta, hogy legyen jó alternatívám, mielőtt tárgyalok. akkor azt hittem, csak dramatizál. aztán persze ebben is igaza lett. gyakorlatilag mindenben igaza volt lol. tényleg hallgatnom kellett volna rá rögtön az elején.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
