performance-test-generator: 性能测试生成器
描述
基于CRAFT L3的NFR性能要求,生成性能测试场景、性能指标定义和验收条件。确保应用性能达到需求。
适用场景
- WORKFLOW_STEP_5 Task S5-2: 创建test_suites.md中的性能测试章节(L3专用)
- WORKFLOW_STEP_5 Task S5-3: Self-Reflection分析性能测试覆盖
- L3项目: 有明确性能需求的系统(响应时间、吞吐量、并发等)
输入
- requirements/(特别是NFR中的性能需求)
- goal_breakdown.md(关键业务GOAL)
- design/architecture.md(架构设计,含可扩展性考虑)
- design/technology.md(技术栈,数据库/缓存等性能相关)
- 业务量预测(日活用户/并发数/数据量等)
输出
- 性能测试计划报告(markdown)
- KPI定义(响应时间/吞吐量/并发数/资源使用等)
- 性能测试场景(Given-When-Then格式)
- 性能验收条件(P99响应时间≤200ms等)
- 测试工具建议(JMeter/Gatling/LoadRunner等)
执行策略
第1步: 提取性能NFR 从requirements/NFR中识别性能需求,分类为:
- 响应时间: P50/P95/P99百分位数(如P99<200ms)
- 吞吐量: QPS/TPS(如1000 QPS)
- 并发: 最大并发用户数(如10000并发)
- 资源: CPU/内存/磁盘使用限制
- 可用性: 可用性要求(如99.9%)
第2步: 性能指标映射 根据应用类型定义关键KPI: | 应用类型 | 关键指标 | 基准值 | 压力值 | |---------|--------|-------|-------| | Web应用 | 页面加载时间 | <1s | <3s | | API | 响应时间(P99) | <200ms | <500ms | | 数据库 | 查询时间 | <100ms | <300ms | | 缓存 | 命中率 | >90% | >80% |
第3步: 业务量预测 根据需求确定测试规模:
- 日活用户(DAU) → 并发用户数 = DAU × 峰值系数 / 3600
- 业务操作 → QPS = 日操作数 / 86400 × 峰值系数
- 数据量 → 存储/查询性能影响
第4步: 关键路径KPI定义 为核心业务流程定义KPI:
- 登录: P99响应时间 ≤ 500ms
- 查询: P99响应时间 ≤ 200ms
- 下单: P99响应时间 ≤ 1000ms
- 支付: P99响应时间 ≤ 2000ms
第5步: 性能测试场景
- 基准测试: 正常负载(50%峰值)
- 压力测试: 突增负载(100%峰值)
- 耐久性测试: 长时间运行(8小时)
- 尖峰测试: 瞬间峰值(150%峰值)
第6步: L1/L2/L3分级
- L1: 仅基准测试,关键路径KPI
- L2: 基准+压力测试,主要路径KPI
- L3: 完整测试(基准/压力/耐久/尖峰),所有路径KPI
第7步: 测试工具选择 | 工具 | 适用场景 | 特点 | |------|--------|------| | JMeter | 通用性能测试 | 开源、支持多协议 | | Gatling | API性能测试 | 高吞吐、实时报告 | | LoadRunner | 企业级测试 | 功能完整、成本高 | | Locust | Python脚本测试 | 灵活、易扩展 |
价值
- SPEC组织: 将性能需求转化为可量化的测试目标
- DevOps/QA: 系统化的性能测试覆盖和持续监控
- Dev: 明确的性能约束,指导优化方向
验收标准(L3)
- 覆盖所有NFR性能要求
- 关键路径KPI明确定义
- 给定-当-那 格式清晰规范
- 验收条件可量化可自动化
- 包含基准/压力/耐久性测试