Chat & Reasoning Modelle
| Modell | Provider | Best Case | Kontext | Reasoning |
|---|---|---|---|---|
| claude-4.5-opus | Vertex AI | Komplexe Forschung, Nuancen | 200k | - |
| claude-4.5-sonnet | Vertex AI | Bester Allrounder, Coding | 200k | - |
| claude-4-sonnet | Vertex AI | Starker Allrounder | 200k | - |
| gpt-5 | Azure | Next-Gen Logik, komplexe Instruktionen | 128k+ | - |
| gpt-5.2 | Azure | Erweiterte GPT-5 Version | 128k+ | - |
| gpt-4o | Azure | Multimodal, schnell, Standard | 128k | - |
| gpt-4.1 | Azure | Iteratives GPT-4 Update | 128k | - |
| gemini-3-pro | Vertex AI | Multimodal, riesige Datenmengen | 2M+ | - |
| gemini-2.5-pro | Vertex AI | Lange Dokumente, ausgewogen | 2M | - |
| gemini-2.5-flash | Vertex AI | High-Speed, Massenverarbeitung | 1M+ | - |
| gpt-5-mini | Azure | Kosteneffizient, GPT-5 Basis | 128k | - |
| gpt-4o-mini | Azure | Sehr schnell, günstig | 128k | - |
| gpt-4.1-nano | Azure | Extrem leicht, Edge-Cases | 128k | - |
| mistral-large | Mistral AI | Komplexe Aufgaben, EU-Datenschutz | 128k | - |
| mistral-medium | Mistral AI | Balance: Speed + Leistung | 32k | - |
| mistral-small | Mistral AI | Schnell, effizient, geringe Latenz | 32k | - |
| glm-4.5 | Nebius | Starker Generalist (CN/EN) | 128k | - |
| glm-4.5-air | Nebius | Effiziente GLM Version | 128k | - |
| grok-4 | xAI | Kreativität, Echtzeit-Wissen | 128k+ | - |
| qwen-3-235b-thinking | Nebius | Mathe, Logik, Wissenschaft | 128k | ✓ |
| sonar-reasoning | Perplexity | Websuche + logische Planung | - | ✓ |
| sonar-reasoning-pro | Perplexity | Websuche + Max Reasoning | - | ✓ |
| sonar-pro | Perplexity | Websuche, aktuelle Infos | - | - |
| kimi-k2-instruct | Nebius | Sehr lange Kontexte | 200k+ | - |
| qwen-3-235b-instruct | Nebius | Starkes Open-Weight Modell | 32k+ | - |
| gpt-oss-120b | Nebius | Open Source GPT-Alternative | 32k | - |
Reasoning-Modelle (✓) denken in Schritten nach, bevor sie antworten. Ideal für mathematische Probleme, komplexe Logik und wissenschaftliche Analysen. Diese Funktion muss zusätzlich im Agent aktiviert werden.
Embedding Modelle
Embedding-Modelle wandeln Text in Vektoren um und werden für semantische Suche (RAG) und Klassifizierung verwendet.| Modell | Provider | Geeignet für |
|---|---|---|
| localmind-embeddings | Mistral | Standard-Embeddings (Localmind) |
| mistral-embed | Mistral AI | Semantische Suche (EN/FR/DE) |
| mistral-embed-eu | Mistral AI | Semantische Suche (EU-Hosting) |
| qwen-3-embedding-0.6b | Nebius | Schnelle, leichte Embeddings |
| qwen-3-embedding-8b | Nebius | Hochpräzise Embeddings (Multilingual) |
Modellauswahl-Guide
Welches Modell für welchen Zweck?
Welches Modell für welchen Zweck?
| Aufgabe | Empfohlene Modelle |
|---|---|
| Alltagsaufgaben, Chat | GPT-5, Mistral Medium, Claude 4.5 Sonnet |
| Coding & Entwicklung | Claude 4.5 Sonnet, GPT-5, Gemini 3 Pro |
| Lange Dokumente | Gemini 3 Pro, Gemini 2.5 Pro, Kimi K2 |
| Schnelle Antworten | GPT-4o-mini, Gemini 2.5 Flash, Mistral Small |
| Mathematik & Logik | Qwen-3-235b-thinking, Sonar Reasoning Pro |
| Webrecherche | Sonar Pro, Sonar Reasoning |
| EU-Datenschutz | Mistral Large, Mistral Embed EU |
Was bedeutet 'Kontext'?
Was bedeutet 'Kontext'?
Der Kontextwert (z.B. 128k, 2M) gibt an, wie viel Text das Modell gleichzeitig verarbeiten kann.
- 32k ≈ 50 Seiten Text
- 128k ≈ 200 Seiten Text
- 1M+ ≈ 1.500+ Seiten Text
