Konformitätsrate im Vergleich zum Branchenstandard von 70%
Konformitätsrate im Vergleich zum Branchenstandard von 70%
Konformitätsrate im Vergleich zum Branchenstandard von 70%
Konformitätsrate im Vergleich zum Branchenstandard von 70%
Emergent ist eine KI-Plattform, die das Erstellen von Software so einfach macht wie ein Gespräch. Das Unternehmen hat autonome Coding-Agenten geschaffen, die in cloudbasierten Entwicklungsumgebungen laufen und dort Code schreiben, Datenbanken verwalten, Deployments durchführen und Probleme beheben – ohne menschliches Eingreifen.
Emergent wollte die Softwareerstellung demokratisieren, indem Programmierung als Hürde beseitigt wird. Die Kunden des Unternehmens – Gründer, die MVPs bauen, Produktmanager, die interne Tools erstellen, Fachexperten, die Branchenlösungen entwickeln, und kleine Unternehmen, die Abläufe automatisieren – zahlen in der Regel 25–50 $ monatlich, um Anwendungen zu erstellen, die traditionell über 50.000 $ an Entwicklungskosten erfordern würden.
„Wir hatten drei Leben“, sagte Mukund Jha, CEO und Mitgründer von Emergent. Das Unternehmen baute zunächst ein KI-gestütztes QA-Testing-Produkt mit Agenten, die Webanwendungen navigieren, Oberflächen verstehen und Funktionalität verifizieren konnten. Dann, am ersten Tag bei Y Combinator, kam die Erkenntnis: Wenn ihre KI Anwendungen gut genug verstehen konnte, um sie zu testen – warum nicht gleich bauen?
Sie dachten sofort um. Version zwei war ein Enterprise-Coding-Agent, der SWE-Benchmarks anführte und Devins Ergebnisse übertraf. Doch Enterprise-Vertriebszyklen verlangsamten das Feedback auf Monate. Im Januar pivotierten sie erneut – diesmal zu Endverbrauchern und verpackten ihren Agenten in eine Webplattform, auf der jeder sofort mit dem Bauen beginnen konnte.
Allerdings standen sie vor drei kritischen technischen Herausforderungen. Modelle vergaßen Anweisungen innerhalb derselben Sitzung und ignorierten Formatierungsanforderungen, die sie kurz zuvor erhalten hatten. Sie schrieben teilweisen Code mit Kommentaren wie „Rest bleibt gleich“, was die Ausgabe für die tatsächliche Entwicklung unbrauchbar machte. Am problematischsten war, dass Agenten Hunderte von Terminal-Befehlen ausführen mussten, aber Modelle bei der korrekten Syntax und Parameterreihenfolge konsistent versagten.
Emergent testete alles – führende proprietäre Modelle, Open-Source-Optionen, das volle Programm. Claude erwies sich in den entscheidenden Dimensionen als deutlich besser.
Einmal gegebene Anweisungen blieben über gesamte Projekte hinweg konsistent. Die Befehlsausführung zeigte hohe Genauigkeit bei der Tool-Calling-Syntax und mehrstufigen Workflows. Das Modell generierte konsistent vollständige Codedateien mit über 500 Zeilen ohne Kürzungen.
„Die API-Integration war unkompliziert – wir hatten sie innerhalb von zwei Tagen in der Produktion laufen“, sagte Jha.
Claude treibt fünf Kernfunktionen in der Plattform von Emergent an. Für die Codegenerierung erstellt es vollständige Anwendungen mit durchschnittlich über 5.000 Zeilen in Python-Backends, JavaScript-Frontends und Datenbankschemata. Verschiedene Claude-Instanzen übernehmen spezialisierte Aufgaben in der Multi-Agenten-Orchestrierung – eine verwaltet Frontend-Arbeit, eine andere Backend-Logik, eine dritte konzentriert sich auf Testing und eine vierte auf Deployment.
Für autonomes Debugging analysiert Claude Stack-Traces, identifiziert Ursachen und implementiert Korrekturen ohne menschliches Eingreifen. Es nutzt Bilderkennung zur Verifizierung der UI-Funktionalität durch visuelles Testen. Claude trifft auch Architekturentscheidungen, wählt geeignete Tech-Stacks aus und implementiert Design-Muster.
„Die größere Herausforderung war, ihm zu vertrauen“, erklärte Jha. „Wir wollten Claude ständig einschränken, Leitplanken hinzufügen, seine Fähigkeiten begrenzen. Dann erkannten wir: Claude funktioniert besser mit mehr Freiheit, nicht mit weniger. Also gaben wir ihm vollen Zugriff auf virtuelle Maschinen. Da passierte die Magie.“
Dieser Ansatz ermöglichte Fähigkeiten, die zuvor nicht möglich waren. Projekte können jetzt über 100 Workflow-Schritte erfolgreich abschließen, verglichen mit 10–15 Schritten zuvor. Agenten generieren Codebases mit über 5.000 Zeilen ohne menschliches Eingreifen und bauen Full-Stack-Anwendungen mit separaten Frontend- und Backend-Architekturen. Sie bewältigen komplexe Funktionen wie WebSockets, Echtzeit-Updates und Zahlungsabwicklung und erholen sich automatisch von Fehlern, indem sie ihre eigenen Fehler korrigieren.
Der letzte Pivot zu Endverbrauchern, angetrieben durch die Fähigkeiten von Claude, veränderte alles. Emergent ging Anfang Juni an den Markt. Vier Monate später erreichte das Unternehmen 25 Mio. $ ARR mit über 2 Millionen Benutzern und Tausenden von echten Unternehmen, die über die Plattform gestartet wurden.
Projekte, für die ein Freelancer traditionell zwei Wochen brauchte, werden in zwei Stunden erstellt. Die technische Integration dauerte zwei Tage für das initiale Setup, eine Woche für die vollständige Optimierung der Prompts und zwei Wochen für die Umstrukturierung der gesamten Agentenarchitektur um die Fähigkeiten von Claude.
Für die Zukunft entwickelt Emergent Funktionen für mobile und Desktop-Anwendungen. Mittelfristige Projekte umfassen Voice-Coding, bei dem Benutzer Anwendungen verbal beschreiben können, während Emergent sie in Echtzeit erstellt, sowie eine Screen-Sharing-Funktion, die es Benutzern ermöglicht, auf Probleme zu zeigen, die der Agent beheben soll.
Das Unternehmen arbeitet mit Anthropic an Performance-Benchmarking in der Produktion, Multi-Agenten-Orchestrierungsmustern, Long-Context-Optimierung und Zuverlässigkeitsmetriken in der Praxis. Die Test- und Evaluierungsdaten von Emergent helfen Anthropic, Produktionsanwendungen zu verstehen, während Modellverbesserungen direkt die Fähigkeiten der Plattform erweitern.
„Unser gemeinsames Ziel ist es, Softwareentwicklung für jeden zugänglich zu machen, der beschreiben kann, was er braucht – unabhängig vom technischen Hintergrund“, sagte Jha.