Meta AI-Enabled Coding Interview: mitä muuttui ja miten valmistautua
ok siis se hetki kun tajusin että mun prep oli pielessä: mä istuin kämpässä, mulla oli joku four hundred leetcode-probleemaa tehtynä, ja mun rekrytoija lähettää mulle Metan päivitetyn haastattelusivun. mä luen format-osion ja mun vatsaan kolahtaa. Meta muutti niiden coding-onsiten October 2025, ja mä olin grindannut vanhaa tyyliä three viikkoa putkeen: sliding window -templatet, binary tree traversalit, ajastin itseäni mediumeissa. kaikki se oli edelleen relevanttia phone screeniin, mutta onsiteen kuuluu nyt one of the two coding rounds -kierroksista, joka on sixty minutes CoderPadissa, jossa on chat-paneeli ja sä voit jutella GPT-5:n tai Claude Sonnetin tai Geminin tai Metan oman Llama 4 Maverickin kanssa. ne antaa sulle AI:n. three viikkoa preppiä ja ehkä puolet siitä oli relevanttia sille kierrokselle joka oikeasti päättää, mä olisin voinut huutaa.
Marcus, mun frendi joka veti Meta loopin January, soitti mulle autosta heti onsiten jälkeen ja oli ihan fiiliksissä. Three panel CoderPad: file explorer vasemmalla, editor keskellä, AI chat oikealla. ei mitään tyhjää function signaturea, ei yhtäkään leetcode-tyyppistä tehtävää. koko projekti, jossa on jo valmiiksi luokkia ja data modelit kirjoitettuna: ensin bug fixejä, sit rakennat uuden featuren, ja lopuksi optimoit koko paketin. Three vaihetta yhden codebasen sisällä, joka vaan kasvaa. Marcus on käynyt läpi Googlen, Amazonin, two unicornia, ja se sanoi että tää kierros tuntui enemmän duunilta kuin mikään haastattelu missä se on ikinä istunut. mä uskoin sitä, koska Marcus ei hypea juttuja turhaan lol.
mallit joista voit valita on GPT-4o mini, GPT-5, Claude Sonnet 4 ja 4.5, Claude Haiku, Gemini 2.5 Pro, Llama 4 Maverick. Marcus sanoi että se vaihteli Claude Sonnetin ja GPT-4o minin välillä: Claude vaikeisiin kohtiin ja GPT-4o mini boilerplateen, ja se toimi hyvin. chat näkee kaikki projektin tiedostot, mutta se ei voi editoida sun koodia -- sä kirjoitat tai liität kaiken itse. Python, Java, C++, C#, Kotlin, TypeScript on vaihtoehdot.
se kohta mistä kukaan ei varoittanut: Meta muutti myös sitä miten ne pisteyttää. nyt on four dimensiota: problem solving, code quality, verification, communication. verification on uusi, ja se on se mihin porukka räjäyttää itsensä. sun pitää todistaa että sä oikeasti luet mitä AI sylkee ulos ennen kuin liität sen editoriin. yhden Metan oman insinöörin mukaan "should use AI but need to show you understand the code, explain the output, test before using, do not prompt your way out of it." yks tyyppi mun prep-ryhmästä liimasi Clauden vastauksen graph traversal -juttuun ilman että tarkisti sitä, missasi yhden boundary conditionin loopissa, ja haastattelija bongasi sen heti. done. ei jatkoon. mä näin sen tekevän samaa mockissa viikkoa aiemmin ja sanoin että hidasta, mutta se ei kuunnellut, classic.
ne haluaa myös että sä puhut koko ajan, ja se tappoi mut alussa. mun Google loop oli: koodaa hiljaa forty minuuttia ja selitä lopussa. Meta haluaa selostuksen minuutista one: miksi valitsit tän lähestymisen, mitä AI antoi, ootko samaa mieltä vai et. Marcus joutui kirjaimellisesti napsauttelemaan sormia Zoomissa meidän mockeissa, koska mä menin aina hiljaiseksi two tai three minuutiksi kun luin koodia. mulla meni four practice sessionia rikkoa se tapa.
prep-moka joka makso mulle two täyttä päivää: mä tein open-ended distributed system designia ennen kuin tajusin että ne on E5 ja yli. E3 ja E4 saa API designia ja client-server -juttuja. two päivää täysin hukkaan, koska mä en kysynyt mun rekrytoijalta millä levelillä mä haastattelen. tee se ennen kuin preppaat yhdenkin tunnin designia.
behavioral-kierros on edelleen mukana, Meta käyttää CAR eikä STAR: Context Action Result eikä Situation Task Action Result. mulla oli five tarinaa Amazon-prepistä STAR-formaatissa ja niiden muuttaminen vei two iltaa joita mulla ei ollut. hyvä CAR-result sisältää numeroita, "cut release cycles from three weeks to four days" toimii, "improved the process" ei. pidä six tarinaa valmiina oikeilla metriikoilla ennen rekrytoijasoittoa, koska Meta liikkuu nopeasti. mun väli phone screenin ja onsiten välillä oli ten päivää, ja joillain on vähemmän.
mä ajoin InterviewMan mock Meta -sessioissa, se nappasi kysymykset audion kautta ja luki CoderPadia reaaliajassa, ja ehdotukset ilmestyi ruudulle about two sekunnissa. behavioralissa se veti esiin tarinarungon aiemmasta joka osui siihen mitä mun practice partner kysyi, mikä rehellisesti vähän säikäytti miten hyvin se seurasi kontekstia. kumpikaan mock partner ei nähnyt mitään screen sharessa tai tallenteessa jälkeenpäin. toimii CoderPadin kanssa sekä phone screenissä että AI onsite -kierroksessa. Twelve bucks a month annual. Interview Coder maksaa two ninety nine monthly pelkkään codingiin, ei behavioralia eikä designia. Meta heittää kaiken sun niskaan one päivässä, ja se että maksoin vähemmän kuin spotify subscriptionin verran ja sain joka round type -kattavuuden tuntui vähän siltä kuin olisin päässyt pälkähästä.
se vanha five hundred leetcode -grindi on edelleen tärkeä phone screeniin. mutta onsite on nyt enemmän sitä, että luet koodia jota et kirjoittanut, varmistat sen paineen alla, ja puhut sun perustelut läpi koko ajan. jos sä teet Meta loopin 2026 ja et oo drillannut just tota skill-comboa, sä kävelet sisään valmistautumatta siihen kierrokseen joka merkitsee eniten.
Ready to Ace Your Next Interview?
Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.
