Sie rufen einen bestehenden Localmind-Agenten aus einem n8n-Workflow auf und verarbeiten die Antwort in nachfolgenden Nodes. Die naheliegende OpenAI Chat Model-Node erwartet einenDocumentation Index
Fetch the complete documentation index at: https://docs.localmind.ai/llms.txt
Use this file to discover all available pages before exploring further.
/v1/models-Discovery-Endpoint, den der agent-spezifische Localmind-Pfad nicht bereitstellt — der Connection-Test schlägt deshalb fehl. Der getestete Weg ist die generische HTTP Request Node, die direkt den OpenAI-kompatiblen Chat-Completions-Endpoint des Agenten aufruft.
Was Sie brauchen
Einen Localmind-API-Schlüssel, die Agent-ID (UUID) und den korrekten API-Host Ihres Deployments.
Wie der Aufruf läuft
HTTP POST mit
Authorization: Bearer <key> und JSON-Body im OpenAI-Chat-Completions-Schema gegen /v1/agents/<agent_id>/chat/completions.Voraussetzungen
- Localmind-API-Schlüssel. Sie erzeugen den Schlüssel in den Space-Einstellungen im Bereich „API-Schlüssel”. Details siehe Space-Einstellungen.
-
Agent-ID. Die UUID des Agenten ist in der Browser-URL der Agent-Detailseite sichtbar — im Pfad direkt nach
/agents/. -
API-Host. Localmind-Deployments folgen einem festen Subdomain-Schema. Für API-Aufrufe verwenden Sie immer den
-api-Host.
HTTP Request Node konfigurieren
HTTP Request Node einfügen
Platzieren Sie in Ihrem n8n-Workflow eine neue HTTP Request Node. Setzen Sie die Method auf
POST und tragen Sie als URL den abgeleiteten API-Endpoint aus dem Beispiel oben ein — mit dem -api-Host und der korrekten Agent-UUID.Authentication als Header Auth anlegen
- Setzen Sie Authentication auf
Generic Credential Type. - Wählen Sie darunter
Header Auth. - Legen Sie eine neue Credential vom Typ Header Auth an mit:
- Name:
Authorization - Value:
Bearer <LOCALMIND_API_KEY>
- Name:
Request-Body konfigurieren
Aktivieren Sie Send Body, wählen Sie als Body Content Type
JSON und fügen Sie das Body-Snippet aus dem Abschnitt Request-Body ein. n8n setzt den Content-Type: application/json-Header in der Regel automatisch.Request-Body
model-Feld: Wird vom Endpoint ignoriert — der Agent nutzt das in Localmind konfigurierte Modell. Das Feld muss laut Schema aber vorhanden sein, sonst gibt der Endpoint einen Validation-Error (422) zurück. Ein beliebiger String genügt.stream: falseist Pflicht. Die HTTP Request Node kann Server-Sent Events (SSE) nicht verarbeiten. Beistream: trueblockiert die Node bis zum Timeout. Die OpenAPI-Spec erlaubt zwarstream: true, aber nicht in dieser Node — wer Streaming braucht, muss die Antwort per Code-Node selbst parsen.messagesfolgt dem OpenAI-Standard-Format: eine Liste von{role, content}-Objekten mitroleaus"user","assistant"oder"system".<USER_INPUT>ist in n8n typischerweise eine Expression wie{{ $json.userMessage }}.
Response-Format
- Antwort-Text:
{{ $json.choices[0].message.content }} - Token-Verbrauch für Logging oder Limits:
{{ $json.usage.total_tokens }} - Das
model-Feld in der Response zeigt das tatsächlich vom Agent verwendete Modell, nicht den Wert aus Ihrem Request.
Beispiel-Workflow
Ein typischer 3-Node-Workflow sieht so aus:choices[0].message.content aus und stellt es als sauberes Feld für weitere Schritte bereit.
- Single-Turn
- Multi-Turn mit Konversations-History
Ein einzelner User-Turn — die Nachricht kommt per Expression aus dem Trigger-Input:Im Trigger erwartet der Workflow ein Feld
userMessage — beispielsweise aus einem Webhook-Payload oder einem manuellen Test-Input.Stolperfallen
Connection-Test der „OpenAI Chat Model“-Node schlägt fehl
Connection-Test der „OpenAI Chat Model“-Node schlägt fehl
Die OpenAI Chat Model-Node führt beim Konfigurieren einen Discovery-Call gegen
/v1/models aus, um verfügbare Modelle aufzulisten. Dieser Endpoint existiert unter dem agent-spezifischen Localmind-Pfad nicht — deshalb meldet die Node „Couldn’t connect” oder einen 404. Verwenden Sie stattdessen die generische HTTP Request Node wie in dieser Anleitung beschrieben.API-Aufruf gibt 404 zurück
API-Aufruf gibt 404 zurück
Häufigste Ursache: Sie haben die URL aus dem Browser kopiert und dabei
<deployment>-app.<domain> stehen lassen. Ersetzen Sie -app durch -api. Zweithäufigste Ursache: falsche Agent-ID — prüfen Sie die UUID gegen die Browser-URL der Agent-Detailseite (Pfad nach /agents/).Workflow hängt nach dem Request
Workflow hängt nach dem Request
stream ist versehentlich auf true gesetzt. Die HTTP Request Node erwartet eine einzelne JSON-Response und hängt bei Server-Sent Events bis zum Timeout. Setzen Sie stream explizit auf false.422 Validation Error
422 Validation Error
Das
model-Feld fehlt im Request-Body. Auch wenn der Wert vom Agent ignoriert wird, validiert das Schema gegen seine Anwesenheit. Tragen Sie irgendeinen String ein, z.B. "localmind".Fehlerbilder
| Status | Ursache | Fix |
|---|---|---|
| 401 | Ungültiger oder fehlender API-Schlüssel | Credential in n8n prüfen, Bearer -Präfix vor dem Schlüssel nicht vergessen |
| 404 | Agent-ID falsch oder Host -app statt -api | UUID aus Browser-URL kopieren, Host-Konvention prüfen |
| 422 | Body-Schema verletzt (model oder messages fehlt) | Body-Snippet aus diesem Artikel übernehmen |
Weiterführend
- Space-Einstellungen — API-Schlüssel erzeugen und verwalten
- API-Key funktioniert nicht — Troubleshooting bei Auth-Problemen
- Security in Automate — Credentials in n8n sicher verwalten
- Debugging in Automate — allgemeine Workflow-Fehlersuche
