实现对外部 API与第三方 Webhook 的完整集成,支持自定义 HTTP 路由、多种认证方式、跨域请求处理及签名验证,可解析 JSON、表单与二进制数据,适用于构建安全可靠的事件驱动服务接口。

Skill
收录可复用的技能工作流,帮助你按场景快速找到方法。
当前显示第 3 / 36 页,共 1060 条结果,本页区间为 61-90,当前标签为 测试与安全。
为 Rust 项目提供基于 libFuzzer 的自动化模糊测试能力,支持快速构建输入处理桩、集成内存安全检测、生成覆盖率报告,并可通过结构感知与字典增强提升对复杂数据格式的探索效率。
提供个人AI基础设施的完整运行规范与系统级知识,涵盖架构原理、核心组件、安全策略、工作流路由及配置管理,是会话启动时自动加载的权威参考源,用于解答所有关于系统行为、身份设定、操作流程和底层机制的问题。
自动评估代码库与基础设施配置是否符合支付卡行业数据安全标准,识别潜在安全风险和合规偏差,生成包含修复建议的详细报告,适用于系统上线前审查、周期性合规检查及安全漏洞排查场景。
提供面向 mflux 命令行工具的轻量级人工验证能力,聚焦于代码变更所影响的功能路径,通过快速执行典型命令并目视检查输出图像、元数据及中间产物,确保 CLI 行为符合预期,尤其适用于图像生成质量、模型存取、分步输出和低内存模式等易出问题的环节。
提供面向 Ruby 代码的覆盖率引导式模糊测试能力,支持纯 Ruby 脚本与 C 扩展的内存安全缺陷挖掘,集成 AddressSanitizer 和 UndefinedBehaviorSanitizer 检测堆栈溢出、use-after-free、整数溢出等深层问题。
面向 Swift 开发者提供现代化测试能力,支持基于宏的声明式测试编写、异步逻辑的可靠验证、参数化用例生成、标签化组织与并行执行,通过架构优化实现毫秒级纯逻辑测试,显著提升测试速度与可维护性。
具备对代码进行深度安全审查的能力,能识别SQL注入、跨站脚本、认证缺陷及高危依赖等风险,自动生成含严重等级、问题位置、影响分析和修复建议的结构化报告,辅助开发者提升应用安全性。
支持后端自动化测试,涵盖单元测试与集成测试,通过模拟服务器环境、构造测试数据、操控时间依赖及验证 HTTP 交互,确保代码逻辑与接口行为符合预期,适用于复杂业务场景下的质量保障。
对已部署应用进行端到端自动化测试,覆盖正常流程与各类边界场景,主动发现功能异常、安全漏洞、UI 问题及用户体验缺陷,并生成结构化缺陷报告和可执行的修复型用户故事。
提供对 Nix 代码的全流程质量保障,涵盖语法校验、格式化、反模式识别、未使用代码检测、模块选项验证及 flake 全量检查,支持自动化集成与项目级标准化治理。
对智能合约代码库进行系统性成熟度评估,覆盖算术安全、审计机制、权限控制、复杂度管理、去中心化程度、文档质量、交易排序风险、底层操作规范及测试验证九大维度,生成带证据支撑的评分卡与可落地的改进建议。
扫描 ONVIF 设备的安全性,检测未授权访问并测试弱凭证漏洞,支持对 IP 摄像头等物联网设备进行认证检查与密码爆破评估。
为 MCP服务器在 Cloudflare Workers 上提供生产级 OAuth 认证能力,支持 Google 登录、Claude.ai 动态客户端注册及用户上下文注入,内置 CSRF 防护、状态防重放、会话绑定与签名 Cookie 等九项安全加固机制,可替代静态令牌实现细粒度权限控制与用户身份识别。
提供面向应用性能、可扩展性与韧性的全周期测试能力,覆盖负载验证、压力极限探测、突发流量模拟、长期稳定性评估及扩缩容效果检验,支持基于真实用户行为建模的场景生成、多维度资源监控与根因分析,并通过自动化代理协同实现测试执行、结果解读及生产环境比对。
提供面向 Metabase 文档的自动化合规审查能力,依据官方写作风格指南检查语气、结构、链接、格式、代码示例及句式问题,支持 GitHub PR 评审与本地文件比对两种模式,确保文档专业、清晰、用户友好。
对现有代码库进行深度解析,梳理项目结构、依赖关系、编码规范、外部集成及技术债务,自动生成架构说明与技术栈文档,为后续开发决策和系统演进提供清晰、可追溯的上下文基础。
自动对 API 接口执行模糊测试,通过注入畸形数据、边界值和随机载荷,检测 SQL 注入、XSS、命令注入等安全漏洞,以及输入验证缺陷和异常响应行为。
执行复杂代码分析、重构与自动化修改,支持多文件上下文理解及安全控制下的智能代码生成,适用于需深度语义解析的工程任务,通过会话机制保持上下文连贯,并可在并行流程中按依赖顺序协调分析、实现与测试环节。
基于抽象语法树的代码结构化分析能力,支持跨40多种编程语言的精准模式匹配、安全漏洞扫描与语义级代码重构,能识别嵌套调用、继承关系、API使用等复杂结构,显著降低文本搜索产生的误报,适用于大规模代码库的智能探索、质量管控与自动化演进。
根据需求编写能明确失败的测试用例,覆盖用户可感知的行为验证,优先构建集成测试以驱动开发流程,在实现前确保所有测试均因缺失功能而报错,从而为后续实现提供精准指引。
提供本地 Web 应用的端到端测试与调试能力,支持在真实浏览器中模拟用户操作、验证界面元素与交互逻辑、捕获屏幕快照、读取控制台日志,并检查响应式布局及网络行为。
自动生成和管理测试所需的数据结构,支持单元测试、集成测试及模拟配置等场景,能够依据行业规范生成可直接投入生产的代码与配置文件,适用于需要高效构建稳定测试数据的开发流程。
分析现有代码库的结构与规范,识别技术栈和项目类型,在不破坏原有约定的前提下补充缺失的开发守则与安全检查机制,逐步建立格式化、静态检查、提交验证等渐进式防护措施。
专注于 Python 代码的深度审查,识别安全风险如硬编码密钥与注入漏洞,评估架构合理性、错误处理完整性、类型提示规范性及文档质量,输出结构化评审意见,覆盖关键问题、优化建议与优秀实践。
自动生成符合行业规范的 k6 性能测试脚本,覆盖负载测试、压力测试及基准测试场景,提供可直接投产的代码配置、最佳实践建议与合规性校验。
自动分析系统响应时间数据,识别性能瓶颈与异常波动,提供可执行的优化建议和标准化测试配置方案,支撑负载测试、压力测试及持续性能监控等工程实践。
根据项目代码自动创建单元测试和组件测试的初始结构,覆盖正常流程与常见边界情况,适配主流测试框架语法,为新功能提供即时测试建议,并通过待办事项提示补充方向,支持快速启动测试编写。
以戈登·拉姆齐式毒舌风格对代码进行多维度质量审查,自动识别命名不规范、函数冗长、重复逻辑、空值风险、异常裸奔、SQL注入、XSS漏洞、硬编码密钥、低效循环、内存泄漏、魔法数字、无效注释等典型问题,生成兼具幽默感与实用性的结构化报告,并支持温和、标准、残暴三级吐槽强度调节。
提供对打包器、转译器及代码变换功能的测试支持,通过定义文件结构、运行时行为与构建选项来验证输出结果,确保代码转换逻辑正确并捕获预期的副作用,适用于构建流程中各类场景的精确断言。