NADIA. DZIEWCZYNO. miałaś rację we wszystkim i powinnam była słuchać od początku, ale nie, musiałam najpierw zawalić swoją pierwszą pętlę w Anthropic, żeby sama to zrozumieć.
ok, oto co się stało. rozmowa na Zoomie o 11:00. obudziłam się o 10:47, narzuciłam bluzę z kapturem, w której spałam, złapałam kawę, która zdążyła wystygnąć, zanim rozmowa w ogóle się zaczęła. osoba prowadząca mówi: „który tryb awarii LLM-ów martwi cię najbardziej”. ja mówię „halucynacje”, jakby to była jakaś genialna, oryginalna myśl. ona nie kiwa głową. nie reaguje. czeka. potem: „ok, a co się w tym zmienia, kiedy dajesz agentowi możliwość używania narzędzi”. i mój mózg po prostu. nic. dosłownie biały szum. nie byłam w stanie wymyślić nawet ZŁEJ odpowiedzi. wymamrotałam coś o krokach weryfikacyjnych, a ona zrobiła tę minę. znasz tę minę? trzy zawalone pętle w trzech różnych firmach, widziałam dokładnie to spojrzenie za każdym razem. znaczy, że runda już jest skończona i obie strony tylko doczekują do końca, udając, że nie jest.
więc tak. zawaliłam to. potem spędziłam dwa miesiące, naprawiając wszystko, co było nie tak z moimi przygotowaniami, a nikt mi wcześniej nic z tego nie powiedział, więc proszę, oto wszystko.
dwanaście historii behawioralnych gotowych do odpalenia. konflikty w zespole, dowożenie pod presją, takie greatest hits. ZERO godzin na AI safety. ani jednej. w Google i Meta nikt nie pyta, co myślisz o tym, co budujesz. budujesz to, wdrażasz i idziesz do domu. w Anthropic? to może być jedno jedyne pytanie, które zdecyduje o całej twojej pętli. Nadia pracuje w innym laboratorium AI i darła się na mnie o to przez tygodnie. „oni nie chcą, żebyś znała buzzwordy, oni chcą zobaczyć, czy naprawdę nie spałaś po nocach przez ten temat.” no dobra Nadia, jasne, cokolwiek. nie słuchałam lol.
Nadia zadzwoniła do mnie tamtego wieczoru i pierwsze, co powiedziała, to „pytali cię o alignment?” a ja na to, że tak. „i powiedziałaś halucynacje.” tak. nawet nie musiała nic więcej mówić.
Anthropic wysłało mi dokument o swoich wartościach przed rozmową i oczekiwali, że go przeczytam. pytali o kwestie prywatności w systemach AI. pytali, co zrobiłabym, gdybym odkryła zdolność modelu, która mogłaby wyrządzić szkodę. pytali o sytuację, kiedy zgłosiłam obawę, której mój zespół nie chciał usłyszeć. to nie jest Amazonowe „opowiedz mi o konflikcie”. oni chcą wiedzieć, czy obchodzi cię to, co robi twój kod po wdrożeniu. OpenAI też to sprawdza według Nadii, mniej konkretnie pod kątem bezpieczeństwa, bardziej tego, czy umiesz mówić o wpływie tego, co budujesz, na prawdziwych ludzi, bez brzmienia jak wyuczona formułka. to jest też ta część, na której zapadają decyzje o poziomie stanowiska, czego większość ludzi nie ogarnia. mnie STAR nie pomogło, jeśli masz prawdziwe historie do opowiedzenia, to wystarczy, ale te historie muszą być o etyce i wpływie, jeśli wszystko, co masz, to „szybko dowieźliśmy pod presją”, to tutaj nie wystarczy.
coding. dziewięćdziesiąt minut. nic podobnego do klasycznych zadań przy tablicy. kazali mi zbudować magazyn key-value. na start SET GET DELETE, potem filtrowane skany, potem wygasanie TTL ze znacznikami czasu, potem trwałość do pliku z kompresją. cztery etapy, każdy dokładany na poprzedni, a osoba prowadząca dorzucała kolejne ograniczenia w tej samej SEKUNDZIE, w której kończyłam etap, jak współpracownik, który zmienia ci specyfikację w połowie sprintu. doprowadzało mnie to do szału. Nadia mówiła, że jej screen w OpenAI wyglądał tak samo, godzina budowania czegoś prawdziwego. OpenAI ma też taki deep-dive, gdzie prezentujesz system, który zbudowałaś, a oni rozkładają na części każdą decyzję, którą podjęłaś, co szczerze brzmi przerażająco.
to, co mnie rozwaliło w codingu, to nie były problemy. to było mówienie na głos o moim podejściu. kiedy normalnie programuję, eksperymentuję i zaczynam pisać z myślą, że później zrobię refaktor. nie da się tak robić, kiedy masz dziewięćdziesiąt minut, ktoś patrzy ci na ręce i co piętnaście minut dodaje nowe wymagania. przy drugiej próbie zmusiłam się, żeby zwolnić. serio, powtarzałam pytanie własnymi słowami i budowałam kilka przykładowych wejść, zanim cokolwiek napisałam. Nadia naprawdę mnie z tego cisnęła, przerywała mi w połowie zdania i mówiła „ok, ale jakie są corner case’y”, a ja musiałam myśleć o tym na głos. zaczęłam robić zarys podejścia i myśleć o złożoności, zanim dotknęłam klawiatury. nawet potwierdzałam z osobą prowadzącą, że kierunek wydaje się sensowny, zanim zaczynałam pisać. potem pisałam powoli i debugowałam na własnych przykładach. w praktyce to było boleśnie wolne, ale realnie przyspieszyło, bo przestałam iść w złe strony i przepisywać wszystko od nowa.
system design. o matko. to jest kompletnie inna planeta niż FAANG system design. nikt nie kazał mi projektować skracacza URL-i. nikt nie pytał mnie o usługę czatu. Anthropic chciało, żebym zaprojektowała infrastrukturę inference serving dla milionów zapytań przy jednoczesnym utrzymaniu wysokiego użycia GPU dla różnych rozmiarów modeli. batchowanie żądań, zarządzanie pamięcią KV cache, routowanie do właściwej instancji, jak narasta opóźnienie w pipeline transformera. mój interviewer ZBUDOWAŁ ich serving stack. tak dosłownie, osobiście go napisał. w dwie minuty wiedział, że moje przygotowanie pochodziło z generycznych filmików na YouTubie i czułam dokładnie ten sam klimat co przy pierwszej rozmowie, kiedy ona zapytała o halucynacje. takie: ok, ta osoba nie odrobiła pracy. OpenAI pyta o podobne rzeczy związane ze skalowaniem inference z tego, co opisywała Nadia. potrzebujesz prawdziwego doświadczenia z tymi systemami, nie ma skrótu i nie będę udawać, że jest. pracowałam wcześniej nad infrastrukturą servingową w poprzedniej pracy, ale i tak potrzebowałam czasu, żeby uporządkować to, co wiem, i wymyślić, jak o tym mówić bez lania wody. i jeszcze jedno: jeśli potrzebujesz rozproszonej kolejki, a nigdy przy niej nie pracowałaś, po prostu nazwij ją „distributed queue”. nie wkopuj się w szczegóły, których nie umiesz obronić.
trochę o timeline, bo ludzie zawsze pytają. Anthropic potrzebowało około trzech tygodni od rozmowy z rekruterem do odpowiedzi. Nadia mówiła, że OpenAI zajęło sześć tygodni, co prawie ją zabiło, odświeżała maila jak wariatka. Anthropic dzieli onsite na dwie oddzielne sesje po pół dnia, po dwie albo trzy rundy każda. OpenAI robi jeden długi dzień. ghosting między etapami jest normalny w obu przypadkach. rekruterzy toną w robocie. jeśli dostaniesz ofertę, poproś o trzydzieści do czterdziestu pięciu minut z jednym z interviewerów. umów spotkanie tylko po to, żeby zadawać pytania. słuchaj uważnie, bo wtedy to oni sprzedają siebie tobie.
więc przy drugiej próbie do Anthropic i przy kilku mockach do OpenAI odpaliłam InterviewMan. przy coding challenge wychwycił, że zapomniałam sprawdzać TTL przy odczytach, zanim przeszłam na kolejny poziom, dokładnie taki rodzaj rzeczy, który by mi umknął, bo byłam skupiona na dotarciu do etapu czwartego. podczas rundy o safety podsuwał mi talking points o alignment i tym razem odpowiedziałam na pytanie o tool use i halucynacje bez tego momentu, w którym mózg zamienia się w pusty biały szum lol. pamiętasz ten moment z mojej pierwszej pętli, kiedy po prostu zamarłam? tym razem się nie wydarzył. przy system design wyłapał GPU usage i batching jako główne tematy, zanim interviewer skończył prompt. sprawdzałam dock, listę procesów, Activity Monitor na Zoomie i Replit i CodeSignal. nic. dwanaście dolców miesięcznie w planie rocznym, bez limitów sesji, 57 000 użytkowników, ponad 20 ukrytych funkcji. Interview Coder za dwa dziewięćdziesiąt dziewięć robi tylko coding, co jest bezużyteczne przy rundzie o safety i system design, które w takich miejscach stanowią może połowę twojego wyniku.
Nadia powiedziała mi, żebym miała dobrą alternatywę, zanim zacznę negocjować, a ja myślałam, że przesadza. ale miała rację, najlepszą alternatywą jest radzić sobie świetnie w swojej obecnej pracy. to wyciąga z twoich przygotowań całą desperację, co i tak sprawia, że lepiej wypadasz na rozmowach. miała rację praktycznie we wszystkim lol, powinnam była słuchać od początku.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
