Best Practices für Prompt-Engineering
Mit den Prompt-Engineering-Techniken des Teams von Claude erzielen Sie bessere KI-Ergebnisse.
Mit den Prompt-Engineering-Techniken des Teams von Claude erzielen Sie bessere KI-Ergebnisse.
Kontext-Engineering hat sich als immer wichtigerer Bestandteil von LLMs herausgestellt, wobei das Prompt-Engineering ein wesentlicher Baustein ist.
Prompt-Engineering ist die Strukturierung von Anweisungen, um bessere Ergebnisse aus den KI-Modellen zu erhalten. Es beschäftigt sich damit, wie man Abfragen formuliert, einen Stil spezifiziert, den Kontext bereitstellt und das Verhalten des Modells steuert, um seine Ziele zu erreichen.
Der Unterschied zwischen einer vagen Anweisung und einem gut erstellten Prompt kann darüber bestimmen, ob Sie generische Ergebnisse oder genau das erhalten, was Sie brauchen. Ein schlecht strukturierter Prompt erfordert möglicherweise mehrere Anläufe, um die Absicht zu klären, während ein gut formulierter Prompt beim ersten Mal das gewünschte Ergebnis erzielt.
Um Ihnen den Start zu erleichtern, haben wir einige Best Practices unseres Teams zusammengestellt, einschließlich praktischer Methoden, die Ihre Ergebnisse sofort verbessern können. Wir beginnen mit einfachen Gewohnheiten, die Sie direkt anwenden und später auf erweiterte Methoden für komplexe Projekte ausweiten können.
Prompt-Engineering modifiziert quasi die Abfrage an Ihr LLM. Oft geht es darum, Informationen zur Abfrage hinzuzufügen, bevor Sie Ihre eigentliche Abfrage stellen. Aber zu wissen, welche Informationen die richtigen sind, ist das Geheimnis für die Entwicklung eines großartigen und effektiven Prompts.
Diese Prompt-Engineering-Techniken bilden die Grundlage für effektive KI-Interaktionen. Verwenden Sie sie konsequent, um sofortige Verbesserungen in der Antwortqualität zu erzielen.
Moderne KI-Modelle reagieren außergewöhnlich gut auf klare, explizite Anweisungen. Gehen Sie nicht davon aus, dass das Modell sich herleitet, was Sie wollen, sondern geben Sie es konkret an. Verwenden Sie einfache Sprache, die genau sagt, was Sie wollen, ohne Mehrdeutigkeit.
Das Schlüsselprinzip: Sagen Sie dem Modell genau, was Sie haben möchten. Wenn Sie einen umfassenden Bericht wünschen, fragen Sie danach. Wenn Sie bestimmte Funktionen benötigen, listen Sie diese auf. Moderne Modelle wie Claude profitieren insbesondere von expliziten Anweisungen.
Beispiel: Erstellung eines Analyse-Dashboards
Vage: „Erstelle eine Analyse-Dashboard“
Explizit: „Erstellen ein Analyse-Dashboard. Fügen Sie so viele relevante Funktionen und Interaktionen wie möglich hinzu. Gehe über die Grundlagen hinaus, um eine Implementierung mit allen Funktionen zu erstellen."
Die zweite Version fordert explizit umfassende Funktionen und signalisiert, dass das Modell über das Minimum hinausgeht.
Best Practices:
Zu erklären, warum etwas wichtig ist, hilft KI-Modellen, Ihre Ziele besser zu verstehen und gezieltere Antworten zu liefern. Dies ist besonders effektiv bei neueren Modellen, die über die Ziele nachdenken können.
Beispiel: Formatierungseinstellungen
Weniger effektiv: „NIEMALS Bulletins verwenden“
Effektiver: „Ich bevorzuge Antworten in natürlicher Absätze, da ich Prosa leichter lesbar und konversationsfreundlicher finde. Bulletpoints wirken sich zu formell und listenähnlich für meinen legeren Lernstil an.“
Die zweite Version hilft dem Modell, die Gründe für die Regel zu verstehen, sodass bessere Entscheidungen über die Formatierung getroffen werden können.
Um den Kontext zu erläutern:
Prompt-Engineering erfordert die Strukturierung Ihrer Anweisungen mit expliziten Richtlinien und Anforderungen. Je genauer man seine Wünsche formuliert, desto besser sind die Ergebnisse.
Beispiel: Essensplanung
Vague: „Einen Speiseplan für eine mediterrane Ernährung erstellen“
Spezifisch: „Entwickeln Sie einen mediterranen Ernährungsplan für die Behandlung von Prädiabetikern. 1.800 Kalorien täglich, Schwerpunkt auf Lebensmitteln mit niedrigem glykämischen Wert. Ich nenne Frühstück, Mittagessen, Abendessen und einen Snack mit vollständigen Nährwertangaben.“
Was macht einen Prompt spezifisch genug?
Anforderungen:
Beispiele sind nicht immer notwendig, aber sie eignen sich hervorragend, um Konzepte zu erklären oder bestimmte Formate zu demonstrieren. Beispiele, die auch als One-Shot-Prompt bezeichnet werden, zeigen statt zu erzählen, und verdeutlichen subtile Anforderungen, die schwer allein in Beschreibung auszudrücken sind.
Wichtiger Hinweis für moderne Modelle: Claude 4.x und ähnliche erweiterte Modelle achten sehr genau auf Details in Beispielen. Stellen Sie sicher, dass Ihre Beispiele an den Verhaltensweisen ausgerichtet sind, die Sie fördern möchten, und minimieren Sie alle Muster, die Sie vermeiden möchten.
Beispiel: Artikelzusammenfassung
Ohne Beispiel: „Fasse diesen Artikel zusammen“
Beispiele für diese Anwendung:
Pro-Tipp: Beginnen Sie mit einem Beispiel (einmalig). Füge nur dann weitere Beispiele hinzu, wenn das Ergebnis immer noch nicht deinen Anforderungen entspricht.
Geben Sie der KI die ausdrückliche Erlaubnis, Unsicherheit auszudrücken, anstatt zu raten. Dies reduziert Halluzinationen und erhöht die Zuverlässigkeit.
Beispiel: „Analysieren Sie diese Finanzdaten und identifizieren Sie Trends. Wenn die Daten nicht ausreichen, um Schlussfolgerungen zu ziehen, sollte man dies sagen, anstatt zu spekulieren.“
Diese einfache Ergänzung macht die Antworten vertrauenswürdiger, da das Modell die Einschränkungen berücksichtigen kann.
Versuchen Sie es in Claude.
Diese Kerngewohnheiten bringen Sie ziemlich weit, aber Sie können immer noch Situationen finden, die anspruchsvollere Ansätze erfordern. Fortschrittliche Prompt-Engineering-Techniken eignen sich hervorragend, wenn Sie agentische Lösungen entwickeln, mit komplexen Datenstrukturen arbeiten oder mehrstufige Probleme lösen müssen.
Im Vorfeld können Sie die Antwort der KI erstellen, wobei Sie Format, Ton oder Struktur festlegen. Diese Technik ist besonders leistungsfähig, um Ausgabeformate durchzusetzen oder Präambel zu überspringen.
Für die Vorauszahlung:
Beispiel: Durchsetzung der JSON-Ausgabe
Claude könnte ohne Vorankündigung sagen: „Hier ist der angeforderte JSON: {...}“
Mit Vorabfüllen (API-Nutzung):
Die KI wird aus dem ersten Rang bestehen und nur gültiges JSON liefern.
Hinweis: In Chat-Oberflächen kann dies annähernd angegeben werden, indem es sehr explizit formuliert: „Ausgabe nur als JSON ohne Präambel. Beginnen Sie Ihre Antwort mit einem ersten Satz.“
Bei der Gedankenkette (Chain of Thought, CoT) wird vor der Beantwortung eine Schritt-für-Schritt-Argumentation abgefragt. Diese Technik hilft bei komplexen analytischen Aufgaben, die vom strukturierten Denken profitieren.
Moderner Ansatz: Claude bietet eine erweiterte Denkfunktion, die strukturiertes Denken automatisiert. Wenn es möglich ist, ist erweitertes Denken in der Regel der manuellen Denkkette vorzuziehen. Das Verständnis des manuellen CoT bleibt jedoch nützlich, wenn kein erweitertes Denken verfügbar ist oder wenn Sie transparente Argumente benötigen, die Sie überprüfen können.
Wenn wir es in Gedanken verwenden:
Es gibt drei gängige Implementierungen der Gedankenkette:
Grundlegende Denkkette
Fügen Sie Ihren Anweisungen einfach „Schritt für Schritt denken“ hinzu.
Gedankengänge
Strukturieren Sie Ihren Prompt so, dass er bestimmte Reasoning-Phasen bereitstellt.
Strukturierte Denkkette
Verwenden Sie Tags, um die Gründe von der endgültigen Antwort zu trennen.
Hinweis: Selbst wenn erweitertes Denken verfügbar ist, kann ein explizites CoT-Prompt für komplexe Aufgaben immer noch von Vorteil sein. Die beiden Ansätze ergänzen sich, schließen sich nicht aus.
Für moderne KI-Modelle gibt es mehrere effektive Methoden, die Antwortformatierung zu kontrollieren:
1. Sagen Sie der KI, was SIE NICHT machen soll
Anstatt: „Verwenden Sie keinen Markdown in Ihrer Antwort“ Versuchen Sie: „Ihre Antwort sollte aus Prosabsätzen bestehen, die reibungslos fließen“
2. Stimmen Sie den Prompt-Stil an die gewünschte Ausgabe ab
Der Formatierungsstil, der in Ihrem Prompt verwendet wird, kann den Antwortstil der KI beeinflussen. Wenn Sie den Markdown minimieren möchten, reduzieren Sie den Markdown im Prompt
3. Geben Sie die Formatierungspräferenzen an
Zur detaillierten Kontrolle der Formatierung:
Im Gegensatz zu den vorherigen Techniken kann das Prompt-Kettening nicht in einem einzigen Prompt implementiert werden. Die Kette zerlegt komplexe Aufgaben in kleinere sequentielle Schritte mit separaten Prompts. Jeder Prompt verarbeitet eine Stufe, und die Ausgabe wird in die nächste Anweisung eingearbeitet.
Dieser Ansatz tauscht die Latenz gegen eine höhere Genauigkeit aus, indem jede einzelne Aufgabe vereinfacht wird. Normalerweise würde diese Technik über Workflows oder programmgesteuert implementiert, aber Sie könnten die Prompts manuell bereitstellen, nachdem Sie die Antworten erhalten haben.
Beispiel: Forschungszusammenfassung
Jede Stufe verbessert die Kenntnisse durch fokussierten Unterricht.
Wenn es das Prompt-Chaining verwendet:
Nachteil: Die Verkettung erhöht die Latenz (mehrere API-Aufrufe), verbessert jedoch oft die Genauigkeit und Zuverlässigkeit für komplexe Aufgaben erheblich.
Einige Prompt-Engineering-Techniken, die bei früheren KI-Modellen populär waren, sind bei Modellen wie Claude weniger notwendig. Sie finden sie jedoch möglicherweise immer noch in älteren Dokumentationen oder in bestimmten Situationen nützlich.
XML-Tags wurden einst empfohlen, um Prompts Struktur und Klarheit zu verleihen, insbesondere bei der Integration großer Datenmengen. Obwohl moderne Modelle Strukturen ohne XML-Tags besser verstehen, können sie in bestimmten Situationen immer noch nützlich sein.
Beispiel:
Wenn XML-Tags immer noch nützlich sind:
Moderne Alternative: In den meisten Anwendungsfällen funktionieren klare Überschriften, Leerräume und explizite Sprache („Unter Verwendung der Athleteninformationen unten…“) mit weniger Overhead genauso gut.
Die Rollenabfrage definiert die Experten und ihre Perspektiven bei der Formulierung Ihrer Frage. Dies kann effektiv sein, aber moderne Modelle sind so ausgefeilt, dass eine aufwändige Rollenabfrage oft überflüssig ist.
Beispiel: „Sie sind Finanzberater. Analysieren Sie dieses Anlageportfolio..."
Wichtiger Vorbehalt: Überlasten Sie die Rolle nicht. „Sie sind ein hilfreicher Assistent“ ist oft besser als „Sie sind ein weltbekannter Experte, der nur technischen Fachjargon spricht und niemals Fehler macht.“ Zu spezifische Rollen können den Nutzen der KI einschränken.
Wenn die Rollenabfrage hilfreich sein könnte:
Moderne Alternative: Oft ist es effektiver, die gewünschte Perspektive explizit anzugeben: „Analysieren Sie dieses Anlageportfolio und konzentrieren Sie sich auf die Risikotoleranz und das langfristige Wachstumspotenzial“, als eine Rolle zuzuweisen.
Versuchen Sie es mit Claude.
Man hat die einzelnen Techniken isoliert betrachtet, aber ihre wahre Leistungsfähigkeit kommt zum Tragen, wenn man sie strategisch kombiniert. Prompt-Engineering verwendet nicht jede verfügbare Technik, sondern die Auswahl der richtigen Kombination für Ihre spezifischen Anforderungen.
Beispiel für die Kombination mehrerer Techniken:
Dieser Prompt kombiniert:
Nicht jeder Prompt benötigt jede Technik. Hier ist ein Entscheidungsrahmen:
Hier beginnen:
Leitfaden zur Auswahl von Techniken:
| Wenn Sie... | Verwenden Sie... |
|---|---|
| Spezifisches Ausgabeformat | Beispiele, Vorabformulierungen oder explizite Formatierungsanweisungen |
| Schritt-für-Schritt-Denkweise | Erweitertes Denken (Claude 4.x) oder Denkkette |
| Komplexe mehrstufige Aufgabe | Prompte Verkettung |
| Transparente Argumentation | Denkkette mit strukturiertem Ergebnis |
| Um Halluzinationen zu vermeiden | Erlaubnis anzugeben, „ich weiß nicht“ |
Selbst gut gemeinte Prompts können unerwartete Ergebnisse liefern. Hier sind häufige Probleme und wie sie behoben werden:
Pro-Tipp: Starten Sie einfach und fügen Sie Komplexität hinzu, wenn es nötig ist. Testen Sie jede Ergänzung, um zu sehen, ob sie die Ergebnisse tatsächlich verbessert.
Lernen Sie aus diesen häufigen Fallen, um Zeit zu sparen und Ihre Prompts zu verbessern:
Eine der Herausforderungen bei der Implementierung von Prompt-Engineering besteht darin, dass es durch die Verwendung zusätzlicher Token Kontext schafft. Beispiele, mehrere Prompts, detaillierte Anweisungen – sie alle verbrauchen Tokens, und das Kontextmanagement ist eine Fähigkeit für sich.
Prompt-Engineering sollte verwendet werden, wenn es sinnvoll ist und die Verwendung rechtfertigt. Eine umfassende Anleitung zur effektiven Verwaltung von Kontext finden Sie in unserem Blogbeitrag über Kontext Engineering.
Verbesserungen der Kontextbewusstsein: Moderne KI-Modelle, einschließlich Claude 4.x, haben die Funktionen zur Kontextbewusstsein deutlich verbessert, um historische Probleme zu lösen, bei denen die Modelle Schwierigkeiten hatten, alle Teile des langen Kontexts gleichermaßen zu berücksichtigen.
Warum Aufgabenaufteilung immer noch hilft: Selbst mit diesen Verbesserungen bleibt die Aufteilung großer Aufgaben in kleinere, diskrete Teile eine wertvolle Technik – nicht aufgrund von Kontextbeschränkungen, sondern weil das Modell sich so darauf konzentriert, seine Arbeit innerhalb eines sehr spezifischen Rahmens und Anforderungen optimal zu erbringen. Eine fokussierte Aufgabe mit klaren Grenzen führt zu qualitativ hochwertigeren Ergebnissen als der Versuch, mehrere Ziele auf einmal zu erreichen.
Strategie: Strukturieren Sie Ihre Informationen bei langen Zusammenhängen klar und deutlich mit den wichtigsten Details am Anfang oder am Ende. Bei komplexen Aufgaben sollte man überlegen, ob die Aufteilung in zielgerichtete Teilaufgaben die Qualität und Zuverlässigkeit jeder Komponente verbessern würde.
Prompt-Engineering ist eine Fähigkeit, und es dauert ein paar Versuche, bis Sie es beherrschen. Der einzige Weg, um zu wissen, ob es richtig ist, ist, es zu testen. Der erste Schritt ist, es selbst auszuprobieren. Sie sehen sofort die Unterschiede zwischen Abfragen mit und ohne die hier beschriebenen Prompting-Techniken.
Um Ihre Prompt-Engineering-Fähigkeiten wirklich zu verbessern, müssen Sie die Effektivität Ihrer Prompts objektiv messen. Die gute Nachricht ist, dass es genau das ist, was in unserem Prompt-Engineering-Kurs auf anthropic.skilljar.com behandelt wird.
Tipps zur Bewertung:
Prompt-Engineering bedeutet letztendlich Kommunikation: Es muss die Sprache gesprochen werden, die es der KI ermöglicht, Ihre Absicht am besten zu verstehen. Beginnen Sie mit den Kerntechniken, die bereits zu Beginn dieses Leitfadens behandelt wurden. Verwenden Sie sie konstant, bis sie zur zweiten Natur werden. Nur in fortschrittlichen Techniken integriert, wenn sie ein bestimmtes Problem lösen.
Denken Sie daran: Der beste Prompt ist nicht der längste oder komplexeste. Es ist es, das Ihre Ziele zuverlässig erreicht, mit der erforderlichen Mindeststruktur. Während Sie üben, entwickeln Sie eine Intuition für die Techniken, die für die jeweilige Situation geeignet sind.
Die Verlagerung zum Kontext-Engineering mindert nicht die Bedeutung des Prompt Engineering. Prompt-Engineering ist ein grundlegender Baustein im Kontext-Engineering. Jeder gut gestaltete Prompt wird Teil des größeren Kontexts, der das KI-Verhalten prägt und mit dem Konversationsverlauf, angehängten Dateien und Systemanweisungen zusammenarbeitet, um bessere Ergebnisse zu erzielen.
Transformieren Sie mit Caude die Arbeitsweise Ihres Unternehmens
Entwickler-Newsletter abonnieren
Neues zu Produkten, Anleitungen, Community-Spotlights und mehr. Monatlich in Ihrem Posteingang.