Batching
Batch-Verarbeitung ermöglicht es, mehrere Items gleichzeitig zu verarbeiten, anstatt jeden Datensatz einzeln zu behandeln. Dies verbessert die Effizienz, reduziert API-Calls und hilft dabei, Rate Limits einzuhalten.Was ist Batching?
Batching bedeutet, mehrere Items zu Gruppen zusammenzufassen und diese gemeinsam zu verarbeiten. Dies ist besonders nützlich bei:- Großen Datenmengen
- API-Calls mit Rate Limits
- Kostenoptimierung (weniger API-Calls)
- Verbesserter Performance
Ohne Batching
Sequenzielle Verarbeitung:Zeit: 3 × API-Zeit
Mit Batching
Batch-Verarbeitung:Zeit: 1 × API-Zeit
Split In Batches Node
Der Split In Batches Node teilt Items in kleinere Gruppen auf:Grundkonfiguration
Grundkonfiguration
Split In Batches konfigurieren:
Batch-Größe bestimmen
Batch-Größe bestimmen
Optimale Batch-Größe wählen:Faktoren:
- API-Rate Limits (z.B. 100 Requests/Minute)
- Maximale Batch-Größe der API (z.B. 50 Items)
- Verarbeitungszeit pro Batch
- Memory-Limits
- Kleine Batches (5-10): Für schnelle APIs, niedrige Rate Limits
- Mittlere Batches (10-50): Standard für die meisten APIs
- Große Batches (50-100): Für APIs mit hohen Limits, wenn Memory ausreicht
Workflow-Struktur
Workflow-Struktur
Typischer Batch-Workflow:
Batch-API-Calls
HTTP Request mit Batch-Daten
Senden Sie mehrere Items in einem API-Call:Batch POST Request
Batch POST Request
Mehrere Items in einem Request:
Batch GET Request
Batch GET Request
Mehrere IDs in einem Request:
Function Node für Batch-Verarbeitung
Komplexe Batch-Logik mit Function Node:Rate Limit Management
Rate Limits einhalten
Batching hilft dabei, Rate Limits einzuhalten:Rate Limit berechnen
Rate Limit berechnen
Batch-Größe basierend auf Rate Limits:
Rate Limit Node verwenden
Rate Limit Node verwenden
Rate Limit Node für kontrollierte Verarbeitung:
Parallele Batch-Verarbeitung
Mehrere Batches parallel verarbeiten
Verarbeiten Sie mehrere Batches gleichzeitig:Parallele Verarbeitung
Parallele Verarbeitung
Workflow-Struktur:
Limitierte Parallelität
Limitierte Parallelität
Kontrollierte parallele Verarbeitung:
Batch-Fehlerbehandlung
Fehler in Batches behandeln
Robuste Fehlerbehandlung für Batches:Partielle Fehler
Partielle Fehler
Wenn einige Items in einem Batch fehlschlagen:
Retry-Logik für Batches
Retry-Logik für Batches
Fehlgeschlagene Batches erneut versuchen:
Best Practices
Optimale Batch-Größe
Wählen Sie Batch-Größe basierend auf:
- API-Limits
- Verarbeitungszeit
- Memory-Verfügbarkeit
- Rate Limits
Fehlerbehandlung
Implementieren Sie robuste Fehlerbehandlung:
- Partielle Fehler behandeln
- Retry-Logik für fehlgeschlagene Batches
- Fehler-Logging
Rate Limits
Respektieren Sie API-Rate Limits:
- Verwenden Sie Rate Limit Node
- Implementieren Sie Backoff
- Überwachen Sie Request-Rate
Monitoring
Überwachen Sie Batch-Performance:
- Batch-Größe tracken
- Verarbeitungszeit messen
- Fehlerrate überwachen
Memory-Management
Achten Sie auf Memory:
- Nicht zu große Batches
- Ergebnisse früh ausgeben
- Unnötige Daten entfernen
Testing
Testen Sie Batching:
- Mit verschiedenen Batch-Größen
- Mit Edge Cases (leere Batches, sehr große Batches)
- Fehler-Szenarien
Praktisches Beispiel
E-Mail-Versand in Batches
Versenden Sie E-Mails effizient in Batches:Checkliste
- Batch-Größe ist optimiert für API-Limits
- Rate Limits werden eingehalten
- Fehlerbehandlung ist implementiert
- Retry-Logik für fehlgeschlagene Batches
- Memory-Verbrauch ist akzeptabel
- Performance wird überwacht
- Edge Cases wurden getestet
Nächste Schritte
Retry Logic
Erfahren Sie, wie Sie Retry-Logik für fehlgeschlagene Batches implementieren.
Performance
Optimieren Sie die Batch-Verarbeitung für bessere Performance.
Item Management
Lernen Sie, wie Sie Items effektiv verwalten.
Testing
Testen Sie Ihre Batch-Workflows gründlich.
Tipp: Beginnen Sie mit kleineren Batch-Größen und erhöhen Sie diese schrittweise, während Sie die Performance überwachen.
