面向生产环境的生成式 AI 代理构建与部署能力,支持基于 Vertex AI 和 Gemini 模型的多模态处理、检索增强生成、函数调用、云原生部署及全链路可观测性,覆盖从开发、评估到运维的完整生命周期。

Skill
收录可复用的技能工作流,帮助你按场景快速找到方法。
当前显示第 7 / 67 页,共 1982 条结果,本页区间为 181-210,当前标签为 数据与分析。
专精于构建可自主运行且可控的AI代理系统,涵盖架构设计、工具调用、记忆机制、分步规划与多代理协同等核心能力,强调容错设计、迭代限制和清晰的失败处理机制,适用于复杂任务的自动化执行场景。
构建一个由三位AI协同运作的工程闭环系统,其中一位负责架构设计与全局规划,另一位专注逻辑验证、安全审查及代码质量评估,第三位执行具体编码与运行,三者通过多轮反馈持续优化,确保最终产出兼具正确性、安全性与高性能。
掌握高级提示工程技术,通过结构化输出、思维链推理和动态示例选择提升大模型在生产环境中的性能与可靠性,实现精准可控的自动化内容生成与复杂任务求解。
专注于Claude Code子代理的全生命周期管理,涵盖设计原则、系统提示词编写、工具权限配置、模型选型及调试优化,支持从零创建、迭代改进到问题排查的完整流程,适用于构建高可靠性、专业化AI助手的工程化实践。
提供创建与优化智能体技能的能力,支持通过结构化文档、可复用脚本及资源包来扩展系统功能,适用于构建模块化、可维护的自动化解决方案,并确保上下文高效利用与按需加载。
实现多智能体协同作业的全流程管理,支持任务自动拆解、子任务并行执行与跨代理通信,通过内嵌式消息系统协调文件编辑权、同步进度和处理阻塞问题,适用于需分工协作的复杂开发场景。
通过文件系统实现持久化任务规划,将复杂任务分解为可管理的阶段并持续记录进展、发现与错误。利用本地文本文件作为外部记忆,确保研究过程透明可控,避免信息丢失,在多步骤操作中保持上下文连贯性。
通过分析数据库查询负载和现有索引配置,自动识别缺失的高效索引以加速慢查询,同时发现长期未被使用的冗余索引以便清理,从而在提升读取性能的同时节省存储空间并优化写入效率。
为 Python 或 TypeScript 应用接入 Honcho 记忆与社交认知能力,支持自动识别代码结构、引导用户明确实体建模范围与会话策略,并按需实现 SDK 初始化、多角色对等体配置、上下文按需查询或预加载、消息持久化及流式响应等完整集成流程。
分批并发采集多源数据,按优先级调度并执行全量抓取任务,确保高时效性与稳定性,最终汇总结果供后续处理使用。
构建可维护的数据转换流程,通过分层建模实现从原始数据到分析就绪表的可靠输出,支持数据质量校验、增量更新与自动化文档生成,适用于复杂数据分析场景下的工程化管理。
构建高效且用户友好的 Telegram 机器人,涵盖从基础自动化到复杂 AI 功能的完整架构设计。支持交互式菜单、支付集成与使用限制管理,优化对话流程与用户体验,适用于需要持续互动、商业化变现及可扩展性维护的场景。
通过纯文本描述定义视觉风格,将艺术指导信息注入生成流程,包含色彩、材质、光影等细节规范,确保输出符合预设的美学方向,适用于需要统一画面语言的图像创作场景。
在 Apple 设备端实现 AI 功能时,确保使用合适的模型处理文本摘要、信息提取或分类任务,避免将其用于知识问答或复杂推理。必须检查模型可用性、支持的语言及上下文长度限制,通过异步操作防止阻塞主线程,并利用 @Generable 保障结构化输出的类型安全。对于外部数据需求,应通过 Tool 调用集成而非依赖模型生成,长内容生成需支持流式响应以优化用户体验,多轮对话中要管理上下文大小防止溢出。
提供高性能文本分词能力,支持 BPE、WordPiece 和 Unigram 三种主流算法,可快速处理大规模语料,具备自定义训练、对齐追踪、标准化预处理及批处理填充截断等功能,适用于研究与生产环境下的 NLP 流水线构建。
通过多种并行化解码策略加速大语言模型推理,包括利用小型草稿模型预测后由主模型批量验证、在模型内部集成多头预测结构、以及将自回归生成重构为并行迭代求解过程,在不损失输出质量的前提下显著降低延迟、提升吞吐量,适用于实时交互与资源受限部署场景。
利用 Gemini 2.5 Pro 的百万级上下文能力,对代码变更进行深度分析,识别潜在缺陷、安全风险与质量隐患,并支持在本地交互、CI/CD 流水线及 GitHub PR 场景中自动化执行结构化评审。
支持构建和管理具备专用角色的隔离型子代理,通过定义名称、用途描述、工具权限及模型配置来创建可自动调用的智能体;子代理在无用户交互前提下独立执行分析、代码审查、文档生成等任务,并将最终结果返回主会话。
提供跨模型协同执行能力,支持将任务动态路由至 OpenAI、Gemini、MiniMax、Kimi、GLM 等十余种外部大模型,兼顾 OpenRouter 统一接入与各厂商直连模式,适用于多模型比对、成本优化及异构模型集成调试场景。
基于 Google 的图像生成 API 构建全栈 Web 应用,支持快速迭代与高质量输出的对话式图像创作,适用于 Next.js 驱动的生成器、编辑器及画廊项目,集成服务端操作、API 路由与存储策略。
提供 CoreML 模型全生命周期诊断能力,覆盖加载失败、推理延迟、内存溢出、压缩后精度下降、计算单元适配异常及转换错误等典型问题,支持基于设备特性、模型结构与部署环境的根因定位与渐进式修复。
提供面向大模型的高性能推理服务,支持自动前缀缓存以加速重复系统提示、多轮对话和工具调用等场景,显著提升结构化输出(如 JSON、正则匹配、语法规则)的生成效率与准确性,适用于智能体构建和生产级规模化部署。
激活后进入高能工程模式,以极端高效与蔑视平庸的态度重构问题,通过严谨的分阶段流程实现精准需求分析、系统化拆解与极致代码优化,用最小化、高性能的解决方案碾压技术惰性,仅对低效架构表现出暴躁嘲讽。
掌握数据库查询性能调优的核心方法,涵盖执行计划深度分析、索引策略设计与实际优化实践,能系统性识别慢查询根因,通过合理索引、高效 JOIN、分页重构、聚合优化及批量操作等手段显著提升查询速度,降低数据库负载。
为早期创业公司构建覆盖3至5年的动态财务模型,支持收入预测、成本结构拆解、现金流分析及多情景推演,涵盖客户生命周期价值、获客成本、现金消耗率与生存周期等核心指标,适配SaaS、电商平台、电商及服务类等不同业务模式。
面向时间序列数据的机器学习分析,支持分类、回归、聚类、预测、异常检测、分段与相似性检索等任务,提供与 scikit-learn 兼容的统一接口,适用于单变量和多变量时序建模及特征工程。
自动聚合全球主流AI资讯源与网络实时内容,筛选过去24至48小时内的重要动态,按重大发布、学术研究、产业动向、工具应用及政策伦理五大维度分类整理,生成带原文链接的结构化简报,并支持按主题、深度、时段和格式灵活定制。
实现多任务并行执行能力,通过在单条消息中同时发起多个独立任务,显著提升处理效率;适用于代码多维度分析、跨模块协同处理、多视角审查等场景,避免顺序等待带来的性能损耗。
支持大规模多维数组的分块存储与压缩,实现高效的并行读写和云存储集成,适用于科学计算中对海量数据的处理、分析及跨平台协作,兼顾本地与分布式环境下的性能优化。