Skip to main content
Nicht jede Aufgabe braucht das leistungsstärkste (und teuerste) Modell. Die richtige Modellauswahl spart Kosten, reduziert Latenz und kann sogar die Qualität verbessern – weil ein spezialisierteres Modell für einfache Aufgaben oft bessere Ergebnisse liefert als ein Alleskönner.

Modellkategorien

Für: Komplexe Aufgaben, Coding, kreatives Schreiben, nuancierte AnalyseDiese Modelle bieten die höchste Qualität und das breiteste Fähigkeitsspektrum. Sie verstehen Nuancen, beherrschen komplexe Instruktionen und liefern die besten Ergebnisse bei anspruchsvollen Aufgaben.
EigenschaftWert
QualitätSehr hoch
GeschwindigkeitMittel
KostenHoch
Kontextfenster128k – 2M+ Tokens
Typische Anwendung: Vertragsanalyse, Strategieberatung, Code-Review, kreative Texte

Entscheidungsbaum: Das richtige Modell finden

1

Was ist die Aufgabe?

  • Einfache Aufgabe (Zusammenfassung, Klassifikation, kurze Antwort) → Effizienz-Modell
  • Komplexe Aufgabe (Analyse, Kreativ, Multi-Step) → Weiter zu Schritt 2
  • Semantische Suche / RAGEmbedding-Modell
2

Braucht die Aufgabe logisches Denken?

  • Ja (Mathe, Logik, schrittweise Analyse) → Reasoning-Modell
  • Nein (kreatives Schreiben, Recherche, Zusammenfassung) → Weiter zu Schritt 3
3

Braucht die Aufgabe aktuelle Informationen?

  • Ja (Websuche, aktuelle Nachrichten) → Search-Modell
  • NeinFlagship-Modell
4

Testen und vergleichen

Testen Sie Ihren Prompt mit 2–3 Modellen und vergleichen Sie Qualität, Geschwindigkeit und Kosten. Oft reicht ein günstigeres Modell aus.

Modelle auf der Localmind-Plattform

Eine vollständige Liste aller verfügbaren Modelle mit Provider, Kontextfenster und Fähigkeiten finden Sie auf der Modelle-Übersicht.
Die verfügbaren Modelle hängen von der Konfiguration Ihrer Organisation ab. Ihr Administrator legt fest, welche Modelle zugänglich sind.

Praxistipps

Kosten vs. Qualität optimieren

StrategieErklärung
RoutingEinfache Fragen → Speed-Modell, komplexe Fragen → Flagship-Modell
Zusammenfassung zuerstLange Dokumente erst mit einem günstigen Modell zusammenfassen, dann mit einem starken Modell analysieren
Few-Shot statt FlagshipOft bringt ein günstigeres Modell mit guten Beispielen bessere Ergebnisse als ein teures Modell ohne Beispiele
Kontextfenster beachtenWählen Sie ein Modell, dessen Kontextfenster zu Ihrer Datenmenge passt – zu klein = Informationsverlust, zu groß = unnötige Kosten

Kontextfenster verstehen

Das Kontextfenster definiert, wie viel Text das Modell auf einmal verarbeiten kann (gemessen in Tokens). Mehr dazu unter Kontextfenster.
DateigrößeGeschätzter Token-BedarfMindestgröße Kontextfenster
1 Seite Text~500 Tokens4k reicht
10-Seiten-Bericht~5.000 Tokens8k reicht
50-Seiten-Dokument~25.000 Tokens32k empfohlen
200-Seiten-Handbuch~100.000 Tokens128k+ nötig

Nächste Schritte