Skip to main content
Localmind bietet Zugriff auf eine Vielzahl von KI-Modellen verschiedener Anbieter. Jedes Modell hat unterschiedliche Stärken – wählen Sie basierend auf Ihrem Anwendungsfall.
Schnellempfehlung: Für die meisten Aufgaben eignet sich GPT-5 oder Mistral Medium. Für komplexe Analysen wählen Sie Claude 4.5 Opus oder Gemini 3 Pro.

Chat & Reasoning Modelle

ModellProviderBest CaseKontextReasoning
claude-4.5-opusVertex AIKomplexe Forschung, Nuancen200k-
claude-4.5-sonnetVertex AIBester Allrounder, Coding200k-
claude-4-sonnetVertex AIStarker Allrounder200k-
gpt-5AzureNext-Gen Logik, komplexe Instruktionen128k+-
gpt-5.2AzureErweiterte GPT-5 Version128k+-
gpt-4oAzureMultimodal, schnell, Standard128k-
gpt-4.1AzureIteratives GPT-4 Update128k-
gemini-3-proVertex AIMultimodal, riesige Datenmengen2M+-
gemini-2.5-proVertex AILange Dokumente, ausgewogen2M-
gemini-2.5-flashVertex AIHigh-Speed, Massenverarbeitung1M+-
gpt-5-miniAzureKosteneffizient, GPT-5 Basis128k-
gpt-4o-miniAzureSehr schnell, günstig128k-
gpt-4.1-nanoAzureExtrem leicht, Edge-Cases128k-
mistral-largeMistral AIKomplexe Aufgaben, EU-Datenschutz128k-
mistral-mediumMistral AIBalance: Speed + Leistung32k-
mistral-smallMistral AISchnell, effizient, geringe Latenz32k-
glm-4.5NebiusStarker Generalist (CN/EN)128k-
glm-4.5-airNebiusEffiziente GLM Version128k-
grok-4xAIKreativität, Echtzeit-Wissen128k+-
qwen-3-235b-thinkingNebiusMathe, Logik, Wissenschaft128k
sonar-reasoningPerplexityWebsuche + logische Planung-
sonar-reasoning-proPerplexityWebsuche + Max Reasoning-
sonar-proPerplexityWebsuche, aktuelle Infos--
kimi-k2-instructNebiusSehr lange Kontexte200k+-
qwen-3-235b-instructNebiusStarkes Open-Weight Modell32k+-
gpt-oss-120bNebiusOpen Source GPT-Alternative32k-
Reasoning-Modelle (✓) denken in Schritten nach, bevor sie antworten. Ideal für mathematische Probleme, komplexe Logik und wissenschaftliche Analysen. Diese Funktion muss zusätzlich im Agent aktiviert werden.

Embedding Modelle

Embedding-Modelle wandeln Text in Vektoren um und werden für semantische Suche (RAG) und Klassifizierung verwendet.
Embedding-Modelle sind nicht für Chat geeignet. Sie werden automatisch im Hintergrund verwendet, wenn Sie Hybrid Search aktivieren.
ModellProviderGeeignet für
localmind-embeddingsMistralStandard-Embeddings (Localmind)
mistral-embedMistral AISemantische Suche (EN/FR/DE)
mistral-embed-euMistral AISemantische Suche (EU-Hosting)
qwen-3-embedding-0.6bNebiusSchnelle, leichte Embeddings
qwen-3-embedding-8bNebiusHochpräzise Embeddings (Multilingual)

Modellauswahl-Guide

AufgabeEmpfohlene Modelle
Alltagsaufgaben, ChatGPT-5, Mistral Medium, Claude 4.5 Sonnet
Coding & EntwicklungClaude 4.5 Sonnet, GPT-5, Gemini 3 Pro
Lange DokumenteGemini 3 Pro, Gemini 2.5 Pro, Kimi K2
Schnelle AntwortenGPT-4o-mini, Gemini 2.5 Flash, Mistral Small
Mathematik & LogikQwen-3-235b-thinking, Sonar Reasoning Pro
WebrechercheSonar Pro, Sonar Reasoning
EU-DatenschutzMistral Large, Mistral Embed EU
Der Kontextwert (z.B. 128k, 2M) gibt an, wie viel Text das Modell gleichzeitig verarbeiten kann.
  • 32k ≈ 50 Seiten Text
  • 128k ≈ 200 Seiten Text
  • 1M+ ≈ 1.500+ Seiten Text
Für lange Dokumente oder viele Dateien wählen Sie Modelle mit großem Kontext.