Leave a Review & Get 30% OFF - Limited Time Offer!

00:00:00
Guides

Data Science Interview-Fragen 2026: SQL, ML und Case Studies

Last updated: March 25, 2026|9 min read|By InterviewMan Team

ok so 23 Uhr. Dienstag. Devs Kuechentheke. Pad Thai leckt Fett auf die Theke. viel zu viele Servietten von diesem Laden an der Mission Street.

Dev schaut mich an und sagt ganz locker: erklaer mir Typ-I-Fehler vs. Typ-II-Fehler in einem A/B-Test.

nichts.

mein Mund geht auf. es kommt exakt gar nichts raus. ich habe zwei Jahre Statistik studiert und stehe in seiner Kueche und kriege keinen normalen Satz zu Typ-I-Fehlern hin lol. Formeln? klar. deutsche Saetze? offenbar nicht. Dev lehnt sich nur zurueck. drei Sekunden Stille. fuehlten sich wie drei Jahre an.

und dann sitze ich zwei Wochen spaeter bei einem Fintech in Runde drei und kassiere fast dieselbe Scham noch mal. davor hatte ich schon SQL-Fensterfunktionen in Runde eins, Statistik in Runde zwei und einen Churn-Pitch hinter mir. dann will ein Produkt-VP ploetzlich, dass ich die Stichprobengroesse fuer einen A/B-Test erklaere, und mein Hirn macht wieder komplett dicht. mein Master hat mir da exakt gar nichts gebracht.

Dev hatte mich gewarnt. drei Jahre Data Scientist bei Spotify, neun Bier Schulden auf meiner Seite, und in einer Bar meinte er nur: DS-Interviews sind vier Interviews, die so tun, als waeren sie eins. ich sass am Handy und hab nur halb zugehoert. super Idee.

spaeter an dem Abend sagte Dev noch den Satz, den ich bis heute hasse. er lehnte am Kuehlschrank, Bier in der Hand, und meinte: wenn du ein Konzept einem PM nicht in zwei Saetzen erklaeren kannst, verstehst du es fuers Interview nicht. dann hat dieser Mensch mich Lena erklaeren lassen, wie ein Bayes-Update funktioniert. Kindergärtnerin. null Statistik-Hintergrund. sie sass da mit Studentenfutter, blinzelte mich an und ich habe mich vier Anlaeufe lang durch die Erklaerung gequaelt. beim dritten war ich kurz davor aufzugeben. beim vierten nickte sie endlich. seitdem sehe ich sofort ihr Gesicht vor mir, wenn jemand p-Werte ohne das Wort Wahrscheinlichkeit, T-Test vs. Chi-Quadrat oder Stichprobengroesse fuer einen A/B-Test in normaler Sprache erklaert haben will. es sind am Ende immer wieder dieselben fuenf Konzepte, nur mit anderem Firmenlogo. mein 140-Dollar-Lehrbuch hat gegen Lena mit Studentenfutter ziemlich klar verloren.

bei Meta war das Ende 2025 laut Dev fast komplett SQL. und nicht das nette Zeug. ich meine Hard-SQL. Fensterfunktionen. CTEs. Self-Joins. Datumslogik. seine Frage war, Nutzer aus einer Login-Tabelle zu finden, deren Login-Frequenz in drei aufeinanderfolgenden Monaten jeweils um mehr als 50 Prozent gegenueber dem Vormonat gefallen ist. also LAG, Fensterfunktionen, Datumsgruppierung, zwanzig Minuten, Shared Editor, los gehts. zwei andere Leute, die ich kenne, haben mir bestaetigt, dass Meta DS genau so laeuft. SQL ist dort das Tor. schreib es sauber runter oder dein Screen ist vorbei.

Google DS ist beim Coden etwas leichter als SWE, aber sie wollen trotzdem echtes Python. vor allem Pandas. du bekommst schmutzige Daten, musst aufraeumen, Metriken rechnen, und danach schaut dich jemand an und fragt: ok, und was sagt uns das jetzt. das ist der Teil, an dem Leute ploetzlich sterben. funktionierender Code auf dem Screen, aber dann vierzig Sekunden Stille, weil niemand die eigene Ausgabe in normale Sprache uebersetzen kann.

ich war genau diese Person.

Dev hat mal ueber FaceTime zugeschaut, wie ich eine simulierte Google-Runde gemacht habe. er hat sich stummgeschaltet, damit ich ihn nicht lachen hoere. danach kam nur eine SMS: Bruder, du hast die richtigen Pandas geschrieben und dann vierzig Sekunden lang nichts gesagt.

und diese vierzig Sekunden sind genau die Art von Stille, die dich in ML-Runden auffrisst.

die fragen dort sind meist nicht irgendeine akademische Herleitung. sie werden dich eher fragen, wann du Gradient Boosting ueber Random Forest waehlen wuerdest. oder, wie bei meinem Mock mit Dev an derselben Kuechentheke, unausgeglichene Klassen -- was machst du. ich bin wieder eingefroren. Dev hat dann einfach runtergerattert: SMOTE, Klassengewichte, Threshold Tuning, Precision-Recall statt Accuracy und natuerlich der Geschaeftskontext, also warum False Positives vielleicht etwas komplett anderes kosten als False Negatives.

fuenf Dinge.

ich hatte zwei.

zwei von fuenf klingt genau nach jemandem, der einen Blogpost gelesen hat und hofft, das reicht. reicht nicht. du brauchst alle fuenf und du musst sie miteinander verknuepfen koennen.

bei Amazon waere Dev in der ML-Projektrunde fast selbst draufgegangen. dort pickst du ein Projekt aus deinem Lebenslauf und wirst dann dreissig Minuten lang gegrillt: welches Modell, warum dieses Modell, welche Features, wie evaluiert, was wuerdest du heute aendern. sein Interviewer hat FUENFZEHN Minuten nur auf der Feature-Entwicklung fuer ein Spotify-Rec-System herumgeritten. fuenfzehn. minuten. fuer ein einziges Projekt.

ich hab ihn davor eine Stunde lang an seiner Kuechentheke zu genau diesem Projekt abgefragt, und trotzdem ist er in Minute zwanzig ueber Entscheidungen gestolpert, die er acht Monate davor getroffen hatte. am selben Abend hat er alle Notizen neu geschrieben. wirklich alle.

Google zieht dich eher in die Theorie. Bias-Variance-Trade-off. Modellkomplexitaet. Regularisierung. und dann sowas wie: ok, aber warum erzeugt L1 sparse Gewichte. wenn du dann nur diamond constraint region sagen kannst, kommt sofort die naechste Frage hinterher: ja schoen, aber was bedeutet das geometrisch, und warum ist das fuer Feature-Auswahl in Produktion wichtig. Lena haette mich bei der Antwort wieder genau so angeblinzelt wie damals. fairerweise zu Recht.

bei Fallstudien ist Dev mir immer ein Stueck voraus gewesen. so ein Prompt wie Kennzahlen sind letzte Woche um 12 Prozent gefallen, was ist passiert, und er baut die Untersuchung live auf, waehrend der Interviewer einen PM spielt, der auf alles vage antwortet. seine Meta-Fallstudie war: die taeglich aktiven Nutzer von Instagram Reels sind in Brasilien um 8 Prozent gesunken, erklaeren Sie mir das.

und Dev hat nicht sofort eine Hypothese rausgehauen.

fuenf Minuten lang nur Rueckfragen. alle Nutzer oder ein Segment. gab es ein App-Update. gibt es saisonale Muster speziell in Brasilien. genau diese fuenf Minuten haben seinen Interviewer mehr beeindruckt als alles, was danach im eigentlichen Analyse-Framework kam. ich waere wahrscheinlich direkt losgerannt und haette mir danach selbst in den Kopf gebissen. selbes Grundproblem wie bei meinen vierzig Sekunden toten Pandas. mein Hirn will antworten, bevor es gefragt hat.

Verhaltensrunden laufen dann wieder ganz anders, aber auch nicht wirklich. dort brauchst du die STAR-Methode. wenn dich jemand fragt, erzaehl mir von einer Situation, in der deine Analyse eine Business-Entscheidung veraendert hat, dann musst du konkret sein: welche Analyse, welcher Stakeholder, welche Entscheidung, welches messbare Ergebnis. ich habe eine Analyse gemacht und es hat geholfen ist im Grunde eine No-Hire-Antwort.

und ja, manche Firmen geben immer noch Take-homes. Datensatz, Prompt, 48 bis 72 Stunden, am Ende reichst du ein Notebook ein. Dev hat mal das Take-home einer Freundin angeschaut. das XGBoost-Modell war perfekt getuned, aber es stand nirgendwo, warum sie beim Feature Engineering genau diese Entscheidungen getroffen hatte. kein einziges Wort dazu. sie kam nicht weiter.

Dev sah sich das an und meinte nur: das ist ein Kaggle-Dump, kein Memo.

ich fand den Satz hart, aber er stimmt. schreib das Ding so, als muesstest du einen VP davon ueberzeugen, Geld freizugeben. jeder, mit dem ich gesprochen habe und der am Ende ein Angebot bekommen hat, hat es genau so geschrieben. koenntest du vielleicht auch mit einem sauberen Kaggle-Notebook durchkommen? vielleicht. ich wuerde nach dieser einen Ablehnung aber nicht darauf wetten.

falls du einfach nur die Formate willst, hier ist Devs Kurzversion, so wie er sie mir eingebrannt hat.

Meta DS faengt meist mit einem SQL-Phone-Screen an. danach kommen Onsites mit Product Sense, Fallstudie, technischer Projektrunde und Behavioral. Product Sense ist dieses Meta-Ding, bei dem du ueber Metriken fuer ihre Apps reden sollst, und Dev meinte jedes Mal, das fuehle sich an wie ein PM mit schlechter Laune und sehr wenig Geduld.

Google DS startet mit Coding plus Statistik am Phone Screen. danach kommen Onsites mit Coding, ML-Konzepten, Fallstudien und Googleyness, also ihrer etwas schickeren Version von waeren wir gern mit dir Mittag essen. Amazon DS startet mit einem OA fuer SQL und grundlegende Statistik und geht dann in eine virtuelle Schleife mit Coding, ML-Projektrunde zu frueherer Arbeit, Fallstudie und Behavioral mit Führungsprinzipien. wenn du die 14 Leadership Principles nicht draufhast, wird das lang. sehr lang.

und genau da wird DS fuer viele Leute seltsam. diese Schleifen schieben dich staendig zwischen Coden und Reden hin und her. SQL- und Python-Runden fuehlen sich an wie Coding-Interviews, nur dass dir Live-Hilfe manchmal aus einem kleinen Syntax-Loch oder einer vergessenen Fensterfunktion raushilft. ausgerechnet LAG ist mir in meinem Meta-Screen einmal komplett entfallen. grossartig. Statistik- und Fallstudienrunden sind viel gespraechiger. dort reicht manchmal schon ein kleiner Stups in die richtige Richtung, damit du nicht komplett spiralisierst.

ich habe InterviewMan in meinem zweiten Zyklus benutzt. in einer SQL-Runde hat es mich darauf gestossen, dass ich gerade eine korrelierte Subquery baue, obwohl eine Fensterfunktion sauberer gewesen waere. und das ist das Peinliche: ich KENNE Fensterfunktionen. der Druck hat mich einfach zur erstbesten alten Gewohnheit greifen lassen.

in einer Fallstudie kam dann ein Hinweis, ich solle Saisonalitaet, Produktaenderungen und Probleme in der Datenpipeline einbeziehen, als ich eine Frage zu sinkenden Metriken bekommen habe. im Prinzip genau dieselbe Logik wie bei Devs Brasilien-Reels-Fall, nur bei einem Zahlungsunternehmen. also genau das Zeug, das er mir mit Pad Thai auf der Kuechentheke monatelang eingepraegt hat.

die Mocks damit haben mir ehrlich gesagt mehr beigebracht als manche Live-Runde, einfach weil ich klar sehen konnte, wo meine Erklaerungen in wildes Handwedeln umkippen. ohne Druck konnte ich diese Stellen dann wirklich reparieren. zwoelf Dollar pro Monat, keine Session-Limits, und nach zwei Jahren Master und einer kompletten Demontage durch Lena mit Studentenfutter war ich ehrlich gesagt nicht in der Stimmung, an der Stelle geizig zu sein.

ich hab irgendwann sogar angefangen, mich auf Mock-Sessions zu freuen. das ist fuer mich persoenlich fast schon ein medizinisches Wunder. davor hatte ich mich erst nach anderen Tools umgesehen, aber da war meistens eins nur fuer Coding oder eins nur fuer Statistik. nichts, das die ganze DS-Schleife abdeckt. Statistik, Fallstudien, Behavioral und SQL in einem Ding. alles andere fuehlte sich wie ein halbes Werkzeug an.

mein duemmster Fehler war am Ende aber gar nicht in einer einzelnen Runde. ich habe naemlich ernsthaft geglaubt, ich koennte DS-Interview-Vorbereitung in kleine saubere Eimer aufteilen. eine Woche SQL. naechste Woche Statistik. danach ML. so, als waeren das schoen getrennte Schulfächer.

und dann sass ich bei diesem Fintech und sie haben mir in vier Stunden alles an einem Nachmittag auf einmal um die Ohren gehauen. genau so, wie Dev es mir vorher gesagt hatte. in der Bar. an seiner Kuechentheke. wahrscheinlich auch in irgendeiner SMS, die ich ignoriert habe, waehrend ich Pad Thai gegessen habe.

ich schulde ihm immer noch neun Bier. und Lena schulde ich wahrscheinlich eine Entschuldigung dafuer, dass ich in ihrer Kueche Bayes-Updates zerlegt habe, waehrend sie einfach nur in Ruhe Studentenfutter essen wollte. sie blinzelt mich immer noch genau so an, wenn ich vorbeikomme. fair enough.

Ready to Ace Your Next Interview?

Join 57,000+ professionals using InterviewMan to get real-time AI assistance during their interviews.

ShareTwitterLinkedIn

Related Articles

Try InterviewMan Free

AI interview assistant. Undetectable.

Get Started