gongwenxin 1901cf611e 集成
2025-07-24 17:22:36 +08:00

2.1 KiB
Raw Blame History

项目简介AI Agent 驱动的合规性测试框架

项目概述

本项目旨在从零开始,构建一个基于 模型-上下文-协议 (Model-Context-Protocol, MCP) 的下一代 API 合规性测试框架。我们将用一个自主决策的 AI Agent 来取代传统的、基于固定脚本的测试逻辑。这个 Agent 将利用一套标准化的、可扩展的 工具集 (MCP Servers),动态地规划和执行测试步骤,以验证 API 是否符合指定的合规性规则。

核心需求

  1. MCP 原生架构: 系统的所有组件交互都必须严格遵循 MCP 规范,实现 Host, Client, 和 Servers 之间的清晰分离。
  2. AI Agent 驱动: 测试的执行逻辑由一个核心的 LLM Agent 驱动,它能够自主进行推理、规划和调用工具。
  3. 可扩展的工具集: 所有的测试能力(如 API 调用、数据生成、结果断言)都必须被封装成独立的、符合 MCP 规范的 Server。
  4. 标准化与模块化: 彻底抛弃硬编码的集成方式,实现测试能力和测试流程的完全解耦。
  5. 透明的可审计性: Agent 的每一个决策步骤、每一次工具调用都必须被完整记录,形成清晰、可审计的测试日志。

关键目标

  1. 提升灵活性: 使测试框架能够轻松适应新的合规规则,甚至在没有明确测试脚本的情况下,也能通过自然语言描述的规则进行测试。
  2. 增强扩展性: 允许任何开发者通过创建一个新的、符合 MCP 规范的工具服务器来为框架贡献新的测试能力。
  3. 提高可维护性: 通过将系统拆分为职责单一的独立组件,大幅降低代码的耦合度和维护成本。
  4. 探索 Agentic Workflow: 验证 AI Agent 在软件测试这一高度结构化领域的自主工作能力,为更复杂的 Agentic 自动化流程积累经验。

技术栈

  • 核心协议: Model-Context-Protocol (MCP)
  • 官方 SDK: model-context-protocol/python-sdk
  • 核心语言: Python 3.8+
  • Agent 大脑: 兼容 OpenAI API 的大语言模型 (LLM)