Das Ende des Programmierens: Andrej Karpathy über Agenten, AutoResearch und die verrückte Ära der KI
Der Mann, der Teslas Autopilot massgeblich mitgebaut hat, erklärt, warum Programmieren wie wir es kennen gerade stirbt. Und was danach kommt, klingt nach Science Fiction.
Andrej Karpathy ist einer dieser seltenen Menschen, deren Tweets ganze Industrien bewegen. Er war Gründungsmitglied von OpenAI, leitete danach die gesamte KI-Abteilung bei Tesla und ist heute als unabhängiger Forscher unterwegs. Wenn Karpathy etwas sagt, hört Silicon Valley zu. Letztes Jahr prägte er beiläufig den Begriff "Vibe Coding", der inzwischen seinen eigenen Wikipedia-Artikel hat.
Diese Woche setzte er sich mit Sarah Guo im No Priors Podcast zusammen. Was er dort erzählte, verdient einen genaueren Blick. Nicht weil es schöne Zukunftsvisionen sind. Sondern weil man spürt: Der Mann beschreibt, was er gestern Abend selbst erlebt hat.
Die Maschine, die forscht, während du schläfst
Anfang März veröffentlichte Karpathy ein kleines Open-Source-Projekt namens autoresearch. Auf den ersten Blick wirkt es unspektakulär: 630 Zeilen Python-Code, eine einzige GPU, ein Markdown-File mit Anweisungen.
Aber was passiert, wenn man es laufen lässt, ist alles andere als unspektakulär.
Du schreibst eine Datei namens program.md. Darin steht, worauf der KI-Agent achten soll. Dann drückst du Enter und gehst schlafen. Der Agent liest den Trainings-Code, stellt eine Hypothese auf, ändert den Code, trainiert ein kleines Sprachmodell für exakt fünf Minuten, prüft ob das Ergebnis besser geworden ist, behält die Änderung oder verwirft sie, und macht weiter. Die ganze Nacht. Ohne dich.
In einer Session über zwei Tage lief der Agent rund 700 Experimente durch. Er fand 20 Optimierungen, die sich addieren ließen und das Training eines GPT-2-Modells um 11% beschleunigten. Das klingt nach wenig. Aber Karpathy hatte diesen Code über Jahre von Hand optimiert. Die Maschine fand in 48 Stunden Dinge, die er in zwei Jahrzehnten übersehen hatte.
Tobias Lütke, der CEO von Shopify, probierte das System über Nacht mit internen Firmendaten aus. 37 Experimente, 19% Performance-Verbesserung. Am nächsten Morgen.
Warum das anders ist als alles davor
Jetzt könnte man sagen: Automatisierte Modelloptimierung gibt es doch schon ewig. Neural Architecture Search, AutoML, das ganze Programm.
Karpathy selbst hat dazu eine klare Meinung. Die alten Methoden seien im Vergleich "in ihrer eigenen Kategorie von komplett nutzlos." Der entscheidende Unterschied: Hier schreibt ein echtes Sprachmodell beliebigen Code, lernt aus vorherigen Experimenten und hat Zugang zum Internet. Das ist ein fundamental anderer Ansatz.
Und hier wird es wirklich interessant. Karpathy beschreibt eine Zeitachse:
2025: Vibe Coding. Du sagst der KI, was du willst, sie schreibt den Code.
Februar 2026: Agentic Engineering. Du schreibst 99% des Codes nicht mehr selbst. Du orchestrierst Agents, die es tun.
März 2026: AutoResearch. Du schreibst nicht mal mehr die Orchestrierung. Du schreibst ein Markdown-File. Der Rest läuft autonom.
Jede Stufe entfernt eine Schicht menschlicher Beteiligung. Die Frage ist nicht mehr, wer den besten Code schreibt. Die Frage ist, wer die beste program.md schreibt.
Die Loopy Era
Im Podcast nutzt Karpathy einen Begriff, der hängen bleibt: die "Loopy Era" der KI. Damit meint er Systeme, die in Schleifen laufen, die nicht auf menschliche Eingaben warten, die ihre eigene Sandbox haben und sich selbst optimieren.
Er beschreibt seinen aktuellen Arbeitsalltag: tmux-Grids voller parallel laufender Agents. Watcher-Skripte, die sie am Laufen halten. Die Idee einer Art Command Center, weil die klassische IDE für eine einzelne Datei tot ist. Die neue Arbeitseinheit sind Teams von Agents.
Seine Formulierung dazu ist präzise: Das Ziel sei, den eigenen Token-Durchsatz zu maximieren und sich selbst nicht mehr in der Schleife zu befinden. Wenige Tokens von dir, einmal ab und zu, und eine Menge passiert in deinem Auftrag.
Das klingt nach Delegation. Aber es ist etwas Grundlegenderes. Ein Doktorand, der ein Experiment pro Tag durchführt, konkurriert jetzt mit einer einzelnen GPU, die 100 Experimente über Nacht abarbeitet. Ohne Pausen, ohne zu vergessen, ohne Lab-Politik.
Was das für die echte Welt bedeutet
Der spannendste Teil des Gesprächs ist vielleicht, wo Karpathy über die Grenzen der aktuellen Agents spricht. Denn er ist kein blinder Optimist.
Die Agents von heute, sagt er, haben einen entscheidenden Coherence-Schwellenwert Ende 2025 überschritten. Claude Code, OpenAI Codex und ähnliche Tools sind plötzlich gut genug, dass sich der gesamte Programmier-Workflow fundamental verändert hat. Aber es gibt immer noch Bereiche, in denen sie versagen: lange Ketten von Abhängigkeiten, Entscheidungen die breites Kontextwissen erfordern, das Erkennen, wann man eine komplett andere Richtung einschlagen sollte.
Genau deshalb, argumentiert Karpathy, verschwindet das technische Wissen nicht. Es wird zum Multiplikator. Wer versteht, was unter der Haube passiert, kann die Agents besser steuern, ihre Fehler erkennen, bessere Markdown-Files schreiben. Wer es nicht versteht, akzeptiert einfach den Output und merkt nicht, wenn der Agent subtil in die falsche Richtung optimiert.
Die SETI@Home Vision für KI-Forschung
Am Ende des Gesprächs skizziert Karpathy eine Idee, die bisher wenig Aufmerksamkeit bekommen hat, die aber potenziell die weitreichendste ist.
Er zieht eine Parallele zu SETI@Home, dem Projekt, das in den 2000ern brachliegende Rechenkapazität von privaten Computern nutzte, um nach außerirdischen Signalen zu suchen. Seine Vision: eine ähnliche Bewegung für KI-Forschung.
Statt eines einzelnen Agents, der einen einzigen Code-Thread optimiert, schwebt ihm ein Schwarm von Agents vor, die asynchron und massiv parallel arbeiten. Aufgaben aufteilen, Ergebnisse gegenchecken, die vielversprechendsten Ideen auf größere Modelle skalieren. Menschen tragen optional an den Rändern bei.
Sein Satz dazu: Das Ziel sei nicht, einen einzelnen Doktoranden zu emulieren. Sondern eine ganze Forschungsgemeinschaft.
Jedes Metrik, die man effizient evaluieren kann, könne durch einen Agent-Schwarm autoresearched werden. Das gilt nicht nur für KI-Training. Sondern für jede Art von Optimierungsproblem, das messbar ist.
Warum das jetzt relevant ist
Für alle, die nicht täglich KI-Paper lesen: Was Karpathy beschreibt, ist kein Fünfjahresplan. Er beschreibt Werkzeuge, die jetzt existieren. Der Code ist auf GitHub. Jeder mit einer GPU kann das heute Abend ausprobieren.
Die Implikationen gehen weit über die KI-Forschung hinaus. Marketing-Teams, die statt 30 Experimenten im Jahr 36.500 laufen lassen. Pharma-Firmen, die Molekülstrukturen über Nacht optimieren. Finanzmodelle, die sich selbst kalibrieren.
Karpathy nennt es den "Final Boss Battle" für KI-Labore. Alle Frontier-Labs werden das tun, sagt er. Es sei komplex in der Skalierung, aber fundamental nur noch ein Engineering-Problem. Und es werde funktionieren.
Man muss ihm nicht in allem zustimmen. Aber man sollte zuhören. Denn die letzten Male, als Karpathy einen Begriff prägte und eine Richtung beschrieb, lag er richtig.
Andrej Karpathys autoresearch-Repository ist frei verfügbar auf GitHub. Die vollständige No Priors-Episode (ca. 70 Minuten) findet sich auf Spotify und Apple Podcasts unter dem Titel "Andrej Karpathy on Code Agents, AutoResearch, and the Loopy Era of AI."