# 项目简介:AI Agent 驱动的合规性测试框架 ## 项目概述 本项目旨在从零开始,构建一个基于 **模型-上下文-协议 (Model-Context-Protocol, MCP)** 的下一代 API 合规性测试框架。我们将用一个自主决策的 **AI Agent** 来取代传统的、基于固定脚本的测试逻辑。这个 Agent 将利用一套标准化的、可扩展的 **工具集 (MCP Servers)**,动态地规划和执行测试步骤,以验证 API 是否符合指定的合规性规则。 ## 核心需求 1. **MCP 原生架构**: 系统的所有组件交互都必须严格遵循 MCP 规范,实现 Host, Client, 和 Servers 之间的清晰分离。 2. **AI Agent 驱动**: 测试的执行逻辑由一个核心的 LLM Agent 驱动,它能够自主进行推理、规划和调用工具。 3. **可扩展的工具集**: 所有的测试能力(如 API 调用、数据生成、结果断言)都必须被封装成独立的、符合 MCP 规范的 Server。 4. **标准化与模块化**: 彻底抛弃硬编码的集成方式,实现测试能力和测试流程的完全解耦。 5. **透明的可审计性**: Agent 的每一个决策步骤、每一次工具调用都必须被完整记录,形成清晰、可审计的测试日志。 ## 关键目标 1. **提升灵活性**: 使测试框架能够轻松适应新的合规规则,甚至在没有明确测试脚本的情况下,也能通过自然语言描述的规则进行测试。 2. **增强扩展性**: 允许任何开发者通过创建一个新的、符合 MCP 规范的工具服务器来为框架贡献新的测试能力。 3. **提高可维护性**: 通过将系统拆分为职责单一的独立组件,大幅降低代码的耦合度和维护成本。 4. **探索 Agentic Workflow**: 验证 AI Agent 在软件测试这一高度结构化领域的自主工作能力,为更复杂的 Agentic 自动化流程积累经验。 ## 技术栈 - **核心协议**: Model-Context-Protocol (MCP) - **官方 SDK**: `model-context-protocol/python-sdk` - **核心语言**: Python 3.8+ - **Agent 大脑**: 兼容 OpenAI API 的大语言模型 (LLM)