Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.localmind.ai/llms.txt

Use this file to discover all available pages before exploring further.

Diese Seite fasst die wichtigsten Erkenntnisse aus allen Bereichen zusammen. Nutze sie als schnelle Referenz vor jeder wichtigen KI-Interaktion.

Die 10 goldenen Regeln

1

Sei spezifisch

Vage Prompts erzeugen vage Antworten. Definiere Ziel, Format, Länge, Tonfall und Zielgruppe explizit.Statt: “Erstelle einen Bericht” → Besser: “Erstelle einen detaillierten Bericht mit Executive Summary, drei Hauptabschnitten und konkreten Handlungsempfehlungen im Bullet-Point-Format.”
2

Gib Kontext

Erkläre dem Modell den Hintergrund und die Motivation hinter deiner Anfrage. Je mehr relevanten Kontext du lieferst, desto gezielter und nützlicher wird die Antwort. Erkläre warum du etwas brauchst, nicht nur was.
3

Definiere das Format

Gib explizit an, in welcher Form du die Antwort erwartest: Tabelle, Liste, Fließtext, JSON, Markdown. Ohne Formatvorgabe entscheidet das Modell – oft nicht in deinem Sinne.
4

Nutze Beispiele

3–5 diverse, relevante Beispiele deines gewünschten Outputs verbessern die Ergebnisse dramatisch (Few-Shot Prompting). Beispiele reduzieren Fehlinterpretationen und sorgen für konsistente Ergebnisse.
5

Setze Grenzen

Definiere, was das Modell NICHT tun soll. Negative Anweisungen (“Verwende keine Fachbegriffe”) sind oft wirksamer als positive (“Schreibe verständlich”).
6

Wähle das richtige Modell

Nicht jede Aufgabe braucht das leistungsstärkste Modell. Einfache Klassifikationen funktionieren mit schnellen Modellen genauso gut – und sind günstiger und schneller. Mehr dazu unter Modellauswahl.
7

Aktiviere Reasoning nur wenn nötig

Reasoning-Modelle “denken nach” bevor sie antworten – ideal für Logik und Analyse, aber unnötig für einfache Zusammenfassungen. Spart Kosten und Zeit. Mehr unter Reasoning & Thinking.
8

Vertraue nie blind

KI-Output immer prüfen, besonders bei Zahlen, Zitaten, Rechtstexten und konkreten Faktenbehauptungen. Mehr unter Halluzinationen vermeiden.
9

Iteriere

Die erste Antwort ist selten perfekt. Verfeinere: “Erweitere Punkt 3”, “Formuliere formeller”, “Das war zu allgemein – gib konkrete Zahlen.”
10

Halte den Kontext schlank

Nur relevante Informationen einfügen. Mehr Kontext bedeutet nicht automatisch bessere Ergebnisse – oft verschlechtert irrelevanter Kontext die Qualität. Mehr unter Kontextfenster.

Allgemeine Prinzipien

Klare und explizite Anweisungen geben

KI-Modelle der neuesten Generation folgen Anweisungen präziser als je zuvor. Sei spezifisch in deinen Anforderungen – verlasse dich nicht darauf, dass das Modell deine Absicht errät. Wenn du umfassende Ergebnisse wünschst, fordere dies explizit an.

Kontext bereitstellen

Erkläre dem Modell den Hintergrund und die Motivation. Je mehr relevanten Kontext du lieferst, desto gezielter wird die Antwort. KI-Modelle verstehen Kontext besser, wenn du erklärst warum du etwas brauchst, nicht nur was.

Beispiele nutzen (Multishot Prompting)

Gib 3–5 diverse, relevante Beispiele deines gewünschten Outputs. Mehr Beispiele führen zu besserer Performance, besonders bei komplexen oder strukturierten Aufgaben.

XML-Tags für Struktur verwenden

Nutze XML-Tags wie <context>, <task>, <output_format>, um deine Prompts klar zu strukturieren. Die meisten aktuellen Modelle reagieren besonders gut auf strukturierte Prompts.

Schrittweises Denken (Chain of Thought)

Bei komplexen Aufgaben (Analyse, Recherche, Logik) gib dem Modell explizit den Auftrag, Schritt für Schritt vorzugehen. Nutze strukturierte Tags wie <thinking> und <answer>, um Denkprozess und Ergebnis zu trennen.

Hinweise zur aktuellen Modellgeneration

Diese Hinweise gelten für die aktuelle Generation (2025/2026) von KI-Modellen aller großen Anbieter. Die spezifische Verhaltensweise kann je nach Provider variieren.
EigenschaftAktuelle ModellgenerationÄltere Modelle
System-Prompt-SensitivitätHoch – natürliche Sprache reicht ausAggressive Formulierungen oft nötig
Tool-TriggeringZuverlässig – weniger Nachdruck nötigÜbertriebene Trigger-Anweisungen oft erforderlich
AnweisungstreuePräzise – “vorschlagen” wird wörtlich genommenUnschärfer bei der Interpretation
KontextbewusstseinAktives Tracking des verbleibenden KontextfenstersWeniger Bewusstsein für eigene Grenzen

Guardrails & Sicherheit

  • Halluzinationen reduzieren: Fordere das Modell auf, “Ich weiß es nicht” zu sagen, wenn Unsicherheit besteht. Referenziere spezifische Quellen und Dokumente.
  • Output-Konsistenz erhöhen: Nutze Vorlagen und Beispiele für konsistente Ausgabeformate.
  • Prompt-Leak verhindern: Platziere sensible Anweisungen im System-Prompt statt im User-Prompt. Mehr dazu unter System-Prompts.
  • Natürliche Sprache verwenden: Aggressive Formulierungen wie “CRITICAL: YOU MUST…” sind bei aktuellen Modellen kontraproduktiv. Verwende stattdessen klare, natürliche Sprache.

Anti-Patterns

Anti-PatternBesser so
”Schreib mir was über Marketing""Erstelle einen 500-Wort Blogpost über B2B-Content-Marketing für SaaS-Unternehmen, Ton: professionell, Zielgruppe: CMOs”
Alles in einen riesigen Prompt packenAufgabe in 2–3 Schritte zerlegen (Prompt Chaining)
“WICHTIG!!! DU MUSST!!!""Bitte achte darauf, dass…”
Kontext nicht bereinigenNur relevante Dokumentausschnitte einfügen
Ergebnis 1:1 verwendenKritisch lesen, prüfen, anpassen
Denselben Prompt für alles verwendenPrompts an jeden Anwendungsfall anpassen
2000 Wörter Anweisung für eine einfache AufgabeAuf das Wesentliche kürzen – jeder Satz muss Mehrwert liefern

Checkliste zum Abhaken

Prüfe vor jeder wichtigen KI-Interaktion:
1

Klares Ziel definiert?

Ist eindeutig, was du willst? Könnte die Anweisung missverstanden werden?
2

Rolle/Persona gesetzt?

Hat das Modell eine klare Identität und Expertise?
3

Kontext vollständig?

Hat das Modell alle Informationen, die es braucht?
4

Ausgabeformat spezifiziert?

Weißt du genau, wie die Antwort aussehen soll? Hast du es beschrieben?
5

Beispiele beigefügt?

Würden Beispiele helfen? Bei komplexen oder ungewöhnlichen Aufgaben: ja.
6

Einschränkungen definiert?

Hast du Grenzen gesetzt für Länge, Themen, Tonfall?
7

Richtiges Modell gewählt?

Passt das Modell zur Aufgabe? Brauchst du Reasoning?
8

Ergebnis geprüft?

Hast du den Output kritisch gelesen und verifiziert?

Dokumentation und Versionierung

Gute Prompts sind Firmenkapital. Dokumentiere und versioniere sie wie Code.
Für jeden Produktions-Prompt dokumentieren:
FeldBeschreibung
NameSprechender Bezeichner
VersionFortlaufende Nummer
ZweckWofür wird der Prompt verwendet?
InputsWelche Variablen werden erwartet?
Erwarteter OutputWie sieht ein gutes Ergebnis aus?
Getestet mitWelche Modelle, welche Testfälle?
Bekannte EinschränkungenWann funktioniert der Prompt nicht gut?

Weiterführende Ressourcen

Prompting-Grundlagen

Die 5 Bausteine eines guten Prompts.

Prompt-Templates

Sofort einsatzbereite Prompts.

Agenten erstellen

Prompting in der Agent-Konfiguration.