Corcava logoDas einzige Business-Tool, das Sie brauchenCorcava
Menü

MCP-Tool-Aufrufe bündeln: Weniger Anfragen, bessere Performance

MCP-Performance durch effektives Batching verbessern. Dieser Guide zeigt: einmal listen, dann Teilmengen bearbeiten, Tool-Schleifen reduzieren und Antwortzeiten mit effizienten Prompt-Vorlagen verbessern.

Inhalt dieses Guides

Dieser Guide vermittelt Batching-Strategien für bessere Performance:

Themen

  • Einmal listen, oft bearbeiten: Daten einmal laden, dann mit Teilmenge arbeiten
  • Schleifen reduzieren: Keine Iteration über Einträge mit Tool-Aufrufen
  • Stapel-Operationen: Zugehörige Operationen zusammenfassen
  • Prompt-Vorlagen: Effiziente Muster, die Aufrufe minimieren
  • Performance-Vorteile: Schnellere Antworten, geringere Latenz

Strategie 1: Einmal listen, Teilmenge bearbeiten

Daten einmal laden, dann mit gefilterter Teilmenge arbeiten:

Effizientes Muster

"Liste alle Aufgaben mit Fälligkeit diese Woche. Aktualisiere dann für die 3 wichtigsten den Status auf 'in_progress'."

Was die KI macht:

  1. Ruft list_tasks einmal auf (mit due_date-Filter)
  2. Wählt die Top 3 aus den Ergebnissen
  3. Ruft update_task für jede der 3 Aufgaben auf
  4. Gesamt: 1 List-Aufruf + 3 Update-Aufrufe = 4 Aufrufe

✓ Effizient: Ein List-Aufruf, dann gezielte Updates

⚠️ Ineffizientes Muster (vermeiden)

"Für jede Aufgabe mit Fälligkeit diese Woche: Details abrufen und dann aktualisieren."

Was passiert:

  1. KI ruft list_tasks auf
  2. Für jede Aufgabe get_task (unnötig)
  3. Für jede Aufgabe update_task
  4. Gesamt: 1 list + N get + N update = viele Aufrufe

✗ Ineffizient: Zu viele Aufrufe, langsame Performance

Strategie 2: Filter auf Tool-Ebene nutzen

Auf Tool-Ebene filtern, nicht im Prompt:

Effizient: Filter im Tool-Aufruf

"Liste Aufgaben mit Status 'blocked' und Fälligkeit diese Woche. Aktualisiere die 2 wichtigsten auf Status 'in_progress'."

Was die KI macht:

  1. Ruft list_tasks mit Filtern auf: status='blocked', due_date='this_week'
  2. Erhält gefilterte Ergebnisse direkt
  3. Aktualisiert nur die Top 2
  4. Gesamt: 1 List-Aufruf + 2 Update-Aufrufe = 3 Aufrufe

✓ Effizient: Server filtert, weniger Ergebnisse

⚠️ Ineffizient: Filter im Prompt

"Liste alle Aufgaben. Filtere dann nach Status 'blocked' und Fälligkeit diese Woche. Aktualisiere diese."

Was passiert:

  1. KI ruft list_tasks auf (erhält ALLE Aufgaben)
  2. KI filtert im Speicher (unnötige Arbeit)
  3. Dann Updates der gefilterten Teilmenge
  4. Gesamt: 1 großer List-Aufruf + N Update-Aufrufe

✗ Ineffizient: Lädt mehr Daten als nötig

Strategie 3: Tool-Schleifen vermeiden

KI nicht iterieren lassen – stattdessen Tool-Filter nutzen:

Effizient: Einzelabfrage mit Filtern

"Liste Aufgaben in Projekt [Projekt-ID] mit Status 'open' und Fälligkeit diese Woche. Zeige die Top 5."

Was die KI macht:

  1. Ruft list_tasks mit allen Filtern auf einmal auf
  2. Erhält gefilterte, sortierte Ergebnisse
  3. Zeigt Top 5
  4. Gesamt: 1 Aufruf

✓ Effizient: Ein Aufruf, Server übernimmt die Filterung

⚠️ Ineffizient: Schleifen-Muster (vermeiden)

"Für jedes Projekt: Aufgaben listen, dann für jede Aufgabe prüfen ob Fälligkeit diese Woche, dann diese anzeigen."

Was passiert:

  1. KI ruft list_projects auf
  2. Für jedes Projekt list_tasks
  3. Für jede Aufgabe Fälligkeit prüfen (im Speicher)
  4. Gesamt: 1 + N Projekt-Aufrufe = viele Aufrufe

✗ Ineffizient: Erzeugt Schleife, viele Tool-Aufrufe

Prompt-Vorlagen

Vorlage 1: Stapel-Update-Muster

Effizientes Stapel-Update

"Liste Aufgaben mit Status 'open' und Fälligkeit diese Woche. Aktualisiere die Top 5 auf Status 'in_progress'. Zeige, welche Aufgaben aktualisiert wurden."

Muster: Einmal listen → Teilmenge wählen → Stapel-Update

Vorlage 2: Multi-Projekt-Zusammenfassung

Effiziente Multi-Projekt-Abfrage

"Liste alle Projekte. Dann für jedes Projekt: Aufgaben mit Fälligkeit diese Woche. Zeige eine nach Projekt gruppierte Zusammenfassung."

Muster: Projekte listen → Aufgaben pro Projekt → Zusammenfassen

Hinweis: Erfordert weiterhin mehrere Aufrufe, die für den Anwendungsfall nötig sind

Vorlage 3: Einzelne umfassende Abfrage

Effizientestes Muster

"Liste Aufgaben mit Status 'blocked' oder 'in_progress', Fälligkeit diese Woche, in Projekt [Projekt-ID]. Zeige die Top 10 mit Verantwortlichen."

Muster: Ein Aufruf mit allen Filtern → Server erledigt alles

Performance-Vorteile

Warum Batching wichtig ist

  • Schnellere Antworten: Weniger Roundtrips = geringere Latenz
  • Geringere Serverlast: Weniger Anfragen = bessere Skalierbarkeit
  • Besseres Nutzererlebnis: Schnellere Ergebnisse
  • Weniger Rate-Limiting: Weniger Aufrufe = seltener Limits
  • Geringere Kosten: Weniger API-Aufrufe

Best Practices

Batching Best Practices

  • Filter auf Tool-Ebene: Tool-Filter nutzen, nicht Prompt-Filterung
  • Einmal listen: Daten einmal laden, dann mit Teilmenge arbeiten
  • Schleifen vermeiden: KI nicht über Einträge iterieren lassen
  • Operationen bündeln: Zugehörige Updates zusammenfassen
  • Paginierung nutzen: Bei großen Listen Paginierung statt alles laden
  • Filter kombinieren: Mehrere Filter in einer Abfrage

Fehlerbehebung

Langsame Antworten

Symptom: MCP-Operationen dauern zu lange

Mögliche Ursachen:

  • Zu viele Tool-Aufrufe in einer Schleife
  • Alle Daten laden statt filtern
  • Operationen nicht bündeln

Abhilfe: Batching-Muster nutzen, auf Tool-Ebene filtern, einmal listen dann bearbeiten

Rate Limiting

Symptom: 429 Rate-Limit-Fehler

Mögliche Ursachen:

  • Zu viele Tool-Aufrufe
  • Operationen nicht bündeln
  • Über Einträge mit Tool-Aufrufen iterieren

Abhilfe: Operationen bündeln, Tool-Aufrufe reduzieren, Filter nutzen

Rate-Limit-Guide →

Weitere Ressourcen

MCP-Performance optimieren

Batching-Strategien nutzen – weniger Tool-Aufrufe, bessere Antwortzeiten