Was ist Extended Thinking?
Extended Thinking ist eine Funktion bestimmter Modelle, die den internen Denkprozess vor der eigentlichen Antwort explizit aktiviert. Das Modell:- Analysiert die Aufgabe und identifiziert Teilprobleme
- Entwickelt einen Lösungsansatz
- Prüft Zwischenergebnisse auf Plausibilität
- Korrigiert sich bei Widersprüchen
- Formuliert erst dann die finale Antwort
Der “Denkprozess” verbraucht Tokens und damit Rechenressourcen. Ein 50-Token-Prompt kann leicht 2000+ Tokens an Denkschritten erzeugen, bevor die eigentliche Antwort beginnt.
Wann Reasoning einsetzen?
| Aufgabentyp | Reasoning sinnvoll? | Begründung |
|---|---|---|
| Mathematische Probleme | Ja | Schritt-für-Schritt-Rechnung reduziert Fehler |
| Logische Schlussfolgerungen | Ja | Prämissen-Verkettung erfordert bewusstes Denken |
| Code-Debugging | Ja | Systematisches Durchgehen des Programmflusses |
| Strategieplanung | Ja | Abwägen von Optionen und Konsequenzen |
| Zusammenfassungen | Nein | Standard-Modelle reichen aus |
| Übersetzungen | Nein | Intuitives System 1 reicht |
| E-Mail-Entwürfe | Nein | Kreativität braucht kein “Nachdenken” |
| Klassifikation | Selten | Nur bei mehrdeutigen oder komplexen Fällen |
| Datenextraktion | Selten | Nur bei verschachtelten oder widersprüchlichen Daten |
Reasoning in Localmind aktivieren
In Localmind können Sie Reasoning für einen Agenten aktivieren:Kompatibles Modell wählen
Stellen Sie sicher, dass ein Reasoning-fähiges Modell ausgewählt ist. Nicht alle Modelle unterstützen Reasoning. Siehe Modelle-Übersicht für Details.
Grenzen von Reasoning
Auch Reasoning-Modelle haben Limitierungen:- Keine Garantie für Korrektheit: Der Denkprozess kann von falschen Prämissen ausgehen und trotzdem logisch erscheinen
- Höhere Kosten: 3–10x höherer Token-Verbrauch durch den internen Denkprozess
- Längere Antwortzeiten: Sekunden bis Minuten statt Millisekunden
- Nicht immer besser: Für kreative und sprachlich-intuitive Aufgaben sind Standard-Modelle oft gleichwertig oder besser
- Halluzinationen möglich: Auch Reasoning-Modelle können falsche Fakten “logisch herleiten”
