QA-Checkliste via MCP: Testschritte aus Aufgaben erzeugen
Mit MCP umfassende Testfälle aus Aufgabenbeschreibungen erzeugen. Dieser QA-Workflow zeigt, wie Sie eine Aufgabe lesen, Testschritte für Funktionalität und Randfälle erstellen und als Kommentar hinzufügen – mit Varianten für Regressions-, Smoke- und Integrationstests.
Was dieser Workflow leistet
Der QA-Checklisten-Workflow mit MCP hilft bei gründlicher Testabdeckung:
Wichtige Ergebnisse
- Testfall-Erstellung: Umfassende Testschritte aus Aufgabenbeschreibungen erzeugen
- Abdeckungsanalyse: Identifizieren, was getestet werden muss (Happy Path, Randfälle, Fehlerbehandlung)
- Testtyp-Varianten: Regressions-, Smoke- und Integrationstests erzeugen
- Dokumentation: Testfälle als Kommentare für QA-Tracking hinzufügen
- Qualitätssicherung: Klare, prüfbare Ergebnisse für Aufgaben sicherstellen
Voraussetzungen
Vor der Nutzung dieses Workflows sollten Sie Folgendes haben:
- Corcava-MCP-Server im KI-Assistenten eingerichtet
- API-Schlüssel mit Lesezugriff auf Aufgaben und Kommentare
- Aufgaben mit klaren Beschreibungen und Abnahmekriterien
- Zum Posten von Kommentaren: API-Key mit Schreibrechten
Workflow Schritt für Schritt
Schritt 1: Aufgabe lesen
Zuerst den vollständigen Aufgabenkontext einholen:
Prompt: Aufgabe lesen
Was die KI macht:
- Ruft
get_taskauf, um Aufgabendetails abzurufen - Ruft
list_task_commentsauf, um bestehenden Kontext zu holen - Analysiert Aufgabenbeschreibung und Abnahmekriterien
- Zeigt Aufgabenkontext für die Testfall-Erzeugung
Schritt 2: Testfälle erzeugen
Umfassende Testschritte erstellen:
Prompt: Testfälle erzeugen
Was die KI macht:
- Analysiert Anforderungen der Aufgabe
- Erkennt Testszenarien
- Erstellt detaillierte Testschritte
- Formatiert Testfälle übersichtlich
Schritt 3: Testfälle prüfen
Die erzeugten Testfälle durchgehen:
Prompt: Prüfung
Was die KI macht:
- Formatiert Testfälle für den Kommentar
- Stellt sicher, dass alle Kriterien abgedeckt sind
- Zeigt formatierte Testfallliste
- Wartet auf Freigabe vor dem Posten
Schritt 4: Testfälle als Kommentar hinzufügen (nach Freigabe)
Testfälle nach Bestätigung posten:
Prompt: Testfälle posten (mit Freigabe)
Was die KI macht:
- Entwirft Kommentar mit Testfällen
- Zeigt Vorschau zur Freigabe
- Wartet auf Bestätigungstoken
- Ruft nach Freigabe
add_task_commentauf
Vollständige Workflow-Prompts
Hier die vollständigen, kopierfertigen Prompts:
Vollständige QA-Testfall-Erzeugung
Einsatz: Wenn Sie eine umfassende Testfall-Erzeugung wollen
Schnelle Testfall-Erzeugung
Einsatz: Wenn Sie eine schnelle Testfall-Erzeugung wollen
Workflow-Varianten nach Testtyp
Variante 1: Regressions-Testfälle
Regressions-Testfälle erzeugen, die bestehende Funktionalität prüfen:
Ergebnis: Die KI erzeugt regressionsfokussierte Testfälle
Variante 2: Smoke-Testfälle
Schnelle Smoke-Testfälle für die Grundprüfung erzeugen:
Ergebnis: Die KI erzeugt minimale Smoke-Testfälle
Variante 3: Integrations-Testfälle
Integrations-Testfälle für Systemwechselwirkungen erzeugen:
Ergebnis: Die KI erzeugt integrationsfokussierte Testfälle
Variante 4: End-to-End-Testfälle
End-to-End-Testfälle für komplette Nutzer-Workflows erzeugen:
Ergebnis: Die KI erzeugt umfassende End-to-End-Testfälle
Beispiel: Vollständige QA-Testfall-Session
Hier ein konkretes Beispiel, wie eine QA-Testfall-Erzeugung abläuft:
Nutzer-Prompt
KI-Antwort (Aufgabendetails)
Aufgabe #123: Benutzer-Authentifizierung implementieren
Beschreibung: Login/Logout mit E-Mail- und Passwort-Authentifizierung hinzufügen.
Akzeptanzkriterien:
- Nutzer kann sich mit E-Mail und Passwort registrieren
- Nutzer kann sich mit Zugangsdaten anmelden
- Nutzer kann sich abmelden
- Session-Verwaltung funktioniert korrekt
Von der KI erzeugte Testfälle
QA-Testfälle (bereit zum Posten):
Happy-Path-Tests:
- Benutzerregistrierung: Schritte: Zur Registrierungsseite gehen, gültige E-Mail und Passwort eingeben, absenden. Erwartung: Konto erstellt, Weiterleitung zum Login.
- Benutzer-Login: Schritte: Registrierte E-Mail und Passwort eingeben, Login klicken. Erwartung: Nutzer eingeloggt, Sitzung erstellt, Weiterleitung zum Dashboard.
- Benutzer-Abmeldung: Schritte: Abmelden-Button klicken. Erwartung: Sitzung beendet, Weiterleitung zur Login-Seite.
Randfälle:
- Doppelte E-Mail-Registrierung: Schritte: Mit bestehender E-Mail registrieren. Erwartung: Fehlermeldung, Konto nicht erstellt.
- Ungültige Login-Daten: Schritte: Falsches Passwort eingeben. Erwartung: Fehlermeldung, keine Sitzung erstellt.
- Sitzungsablauf: Schritte: Auf Timeout warten, geschützte Seite aufrufen. Erwartung: Weiterleitung zum Login, Hinweis Sitzung abgelaufen.
Fehlerbehandlung:
- Ungültiges E-Mail-Format: Schritte: Ungültiges E-Mail-Format eingeben. Erwartung: Validierungsfehler, Registrierung/Login blockiert.
- Schwaches Passwort: Schritte: Passwort eingeben, das Anforderungen nicht erfüllt. Erwartung: Validierungsfehler, Passwortanforderungen werden angezeigt.
Zum Posten „CONFIRM“ oder „YES, ADD COMMENT“ eingeben.
Nutzer-Freigabe
KI-Aktion (nach Freigabe)
✅ QA-Testfälle-Kommentar zu Aufgabe #123 gepostet
Testfälle wurden der Aufgabe zur QA-Nachverfolgung hinzugefügt.
Sicherheitsmuster
✅ Vorschau- und Freigabe-Workflow
Dieser Workflow nutzt Vorschau und Freigabe für alle Schreiboperationen:
- Lese-zuerst: Aufgabendetails immer vor dem Erzeugen von Testfällen lesen
- Testfälle in Vorschau: Alle Testfälle vor dem Posten anzeigen
- Bestätigungstoken: „CONFIRM“ oder „YES, ADD COMMENT“ vor dem Posten verlangen
- Prüfschritt: Prüfung und Bearbeitung vor dem Posten ermöglichen
- Klares Format: Testfälle übersichtlich formatiert
Fehlerbehebung
Aufgabe nicht gefunden
Symptom: Aufgabendetails können nicht abgerufen werden
Mögliche Ursachen:
- Task ID incorrect
- Aufgabe in anderem Workspace
- API key lacks read access
Lösung: Aufgaben-ID und API-Key-Berechtigungen prüfen. Workspace-Zugriff prüfen.
Testfälle zu generisch
Symptom: Generierte Testfälle sind zu vage
Mögliche Ursachen:
- Aufgabenbeschreibung ist zu knapp
- Abnahmekriterien fehlen
Lösung: Konkretere Testfälle anfordern: „Erzeuge detaillierte Testfälle mit konkreten Schritten und erwarteten Ergebnissen“
Comments Not Being Posted
Symptom: KI postet auch nach Freigabe keine Kommentare
Mögliche Ursachen:
- Bestätigungstoken wird nicht erkannt
- API key lacks write permissions
- Task ID incorrect
Lösung: Exakte Bestätigung nutzen: „CONFIRM“ oder „YES, ADD COMMENT“. Prüfen, ob API-Key Schreibrechte hat.
Verwandte Tools
Dieser Workflow nutzt folgende Corcava-MCP-Tools:
get_task
Aufgabendetails und Anforderungen lesen
list_task_comments
Bestehende Kommentare für Kontext prüfen
add_task_comment
Testfälle als Kommentare posten
Verwandte Anwendungsfälle
Acceptance Criteria
Akzeptanzkriterien vor Testfällen erzeugen
Bug Triage
Testfälle zur Prüfung von Bugfixes nutzen
Umfassende Testfälle erzeugen
Verbinden Sie Ihren KI-Assistenten mit Corcava und schaffen Sie umfassende QA-Testabdeckung
