根据用户意图和项目上下文动态发现、加载并缓存相关技术文档,优先获取本地与官方资源,结合实时网络检索和社区内容,实现精准的知识供给,在开发过程中按需提供权威、及时且完整的参考信息。

Skill
收录可复用的技能工作流,帮助你按场景快速找到方法。
当前显示第 204 / 273 页,共 8169 条结果,本页区间为 6091-6120。
基于中医体质理论分析个体体质类型及特征,结合饮食、运动、睡眠等健康数据进行关联解读,生成包含评分、趋势、风险提示的综合评估,并输出个性化调养方案,支持长期体质变化追踪与养生效果反馈。
自动识别并解析用户请求中的日期范围分析需求,提供从数据查询、统计建模到可视化呈现的端到端支持,覆盖 SQL 时间筛选、趋势分析及商业智能场景下的时间维度处理。
提供超高速大模型微调能力,支持 LoRA 与 QLoRA 优化技术,在保持精度的同时显著降低显存占用,加速训练过程,兼容 Llama、Mistral、Gemma、Qwen 等主流开源模型。
面向流式数据处理场景,提供 Kafka 流处理器的自动化配置、代码生成与最佳实践指导,覆盖 ETL 流程、实时数据转换及工作流编排等核心环节,确保输出符合生产环境标准。
提供质谱数据的全流程分析能力,涵盖 LC-MS/MS 蛋白质组学与代谢组学研究,支持多种原始数据格式读写、信号去噪与峰提取、特征检测与定量、肽段及蛋白鉴定、以及化合物注释等核心任务。
提供面向属性的测试辅助能力,自动生成符合行业规范的测试用例、配置及验证逻辑,支持在单元测试、集成测试和测试框架配置中快速构建可验证的测试套件。
启动 GitHub问题的专注开发流程,自动解析需求、创建隔离工作树、生成测试待办事项,并立即进入测试驱动开发循环,确保每次修改都以可验证的测试为前提。
将冗长重复的教育内容转化为精炼连贯的课程,通过消除多余类比与解释、统一内容呈现形式、建立章节间逻辑衔接,并强制设定字数与练习数量上限,确保每节课聚焦单一能力提升且自然承接前序知识。
根据预定义的语义规则对文档内容进行智能分类,能够识别发票、合同、收据等类型,输出类别判断及置信度分析,适用于自动化文档归档与数据预处理流程。
提供 Helm Chart 的自动化生成与配置能力,涵盖模板创建、参数定制、最佳实践校验及生产就绪代码输出,适用于 Kubernetes 应用的声明式部署与基础设施即代码工作流。
统一管理 Sanmill 项目的 C++ 代码格式,自动执行风格标准化、批量文件格式化及合规性检查,支持集成到开发流程与 CI/CD 环境中,确保团队协作时代码结构清晰、风格一致。
处理跨项目功能需求与反馈,自动读取临时目录中的请求或响应文件,执行功能实现或集成操作,并生成结构化反馈文档,完成后自动清理临时文件,确保协作流程闭环。
专注于识别和规避 Vercel 部署中的典型错误与不良实践,覆盖安全风险、性能瓶颈及集成缺陷,支持代码审查、新人培训与现有项目审计,通过扫描定位问题、分级修复并嵌入预防机制提升工程健壮性。
提供铁路平台服务的全生命周期管理能力,包括实时查询部署状态、重命名服务、更换图标、切换关联服务,以及通过 Docker 镜像创建新服务,适用于基础设施即代码场景下的快速迭代与可视化运维。
为首席执行官提供覆盖战略制定、资本配置、利益相关者协同、组织文化塑造及危机应对的系统性决策支持,融合多维度分析框架与结构化实践路径,适用于企业长期方向设定、董事会沟通、投资者管理、高管团队建设及重大经营抉择等核心领导场景。
支持 WooCommerce 插件开发全流程,涵盖代码变更后的自动化测试执行、PHP 与 JavaScript 的风格检查及修复、Markdown 格式校验,并提供针对性的故障排查指引,确保符合官方质量标准。
实现数据库的水平分片管理,通过自动化策略指导数据分布与存储优化,支持在多环境部署中进行分片设计、测试验证及生产上线,确保系统可扩展性与高性能运行。
针对未通过第四关卡的内容进行精准优化,通过删除冗余文本、压缩字数并强化课程间的逻辑衔接,确保内容简洁且上下文连贯,适用于需修复连续性断裂或超字数的教育材料。
自动化完成 Kubernetes Ingress 配置任务,涵盖配置编写、语法校验、最佳实践建议及生产级代码生成,适用于 DevOps 高级场景下的服务路由与流量管理需求。
实现机器学习模型的端到端生产化部署,自动构建 API 服务接口、容器化封装及云环境发布流程,兼顾输入校验、异常容错与性能优化,适用于将训练完成的模型快速可靠地投入实际业务场景。
自动执行机器学习训练中的混合精度优化,涵盖数据预处理、模型训练与超参数调优,生成符合行业规范的可部署代码,适用于 PyTorch 与 TensorFlow 等主流框架下的高效训练流程实现。
提供对 Axiom 日志系统的只读查询能力,支持从 Web 服务、智能体运行、沙箱系统、资源指标及网络请求等多维度数据集中检索调试信息,可按时间范围、关键词、字段值或事件 ID 精准筛选并格式化输出结果。
优化客户服务交互体验,通过低延迟响应、简洁信息分层与自然对话流提升用户满意度,强调精准解答、行动指引与情感共鸣,避免冗余表达与机械话术,在保障专业性的同时实现高效问题解决与人性化沟通。
实现数据库操作的全链路审计追踪,支持通过触发器、应用层埋点、变更数据捕获或日志解析等方式记录增删改行为,自动生成标准化审计表结构,并协助用户按合规要求或调试需求选择适配方案。
为 Lindy AI 智能体提供本地开发支持,涵盖项目初始化、TypeScript 配置、热重载启动、自动化测试及环境变量管理,便于开发者快速迭代与调试代理逻辑。
根据上下文自动配置 API 限流策略,提供符合行业规范的实现方案与生产级代码,支持 REST 和 GraphQL 等接口类型的流量控制配置,确保服务稳定性与安全性。
统一管理 GraphQL 操作的定义、类型生成与调用规范,通过分离查询/变更文件、自动生成类型安全的 React Hook,并强制错误处理、加载状态控制和缓存策略配置,保障前端数据层的可靠性、可维护性与用户体验一致性。
为 LangChain 应用提供企业级权限管理能力,支持基于角色的细粒度访问控制、多租户隔离、模型调用限制、使用配额监控及租户上下文感知的数据操作,确保不同用户和租户在共享平台中安全、合规地使用 LLM 功能。
支持 Firebase 全栈开发与 Vertex AI 深度集成,涵盖身份认证、数据库、云函数、静态托管及 AI 能力嵌入,确保安全的密钥管理、最小权限访问控制和生产级可观测性。