构建面向 AI 数据处理的实时索引流水线,支持从多种数据源提取内容,执行分块、嵌入、LLM 结构化抽取等转换,并将结果增量同步至向量库、图数据库或关系型数据库,兼顾一次性构建与持续更新能力。

Skill
收录可复用的技能工作流,帮助你按场景快速找到方法。
当前显示第 4 / 67 页,共 1982 条结果,本页区间为 91-120,当前标签为 数据与分析。
提供可视化拖拽式工作流编排能力,支持构建持续运行的自主智能体,可集成多种外部服务与大模型,通过节点化模块实现多步骤自动化任务调度、事件触发执行及性能基准测试。
提供无服务器 PostgreSQL 的自动扩缩容与零扩展能力,支持数据库分支部署预览环境,具备时间点恢复和连接池机制,适用于低成本高可用的现代云原生应用开发。
提供高精度多语言语音识别能力,支持99种语言的音频转写与自动翻译为英文,适用于播客整理、会议记录及跨语言音视频内容处理,在不同硬件条件下可灵活选择模型尺寸以平衡速度与准确率。
支持专业文档的创建、编辑与深度分析,涵盖格式保留、修订标记、批注处理及内容提取。通过结构化工作流实现对文档内容的精准修改,适用于法律、学术等高要求场景的自动化文档操作。
在本地实现离线文本转语音功能,支持跨平台运行并生成高质量语音文件,适用于无需云端交互的私有化语音合成场景。
实现对 DOCX 文档的完整处理,包括从零创建、内容编辑到深度分析,支持修订模式下的精准文本变更与批注管理,适用于法律或商业等专业场景的文档协作,并可将文件转换为图像以进行可视化审查。
在执行任何任务前必须优先检查并调用相关技能,确保遵循既定流程处理问题,无论需求看似简单与否,均需通过技能工具验证可行性,并按指引完成操作。
提供基于Python的生存分析与事件时间建模能力,支持对删失数据进行建模,拟合多种风险模型并评估预测性能,适用于医学、工程等领域的可靠性与生存率研究。
提供面向推理与任务对齐的强化学习微调能力,支持通过多响应组内比较优化模型输出格式、事实准确性及思维链质量,适用于需结构化响应、可验证结果或领域行为对齐的复杂场景。
帮助用户理解 OpenRouter 的计费机制与成本估算方法,涵盖模型调用的费用构成、不同模型的价格差异以及基于 token 使用量的成本预测,适用于预算规划和高性价比模型选型场景。
通过执行计划分析、索引优化与查询重构,解决数据库性能瓶颈,提升查询效率并降低系统负载,适用于慢查询诊断、高并发场景优化及大规模数据处理。
具备网络延迟诊断与通信优化能力,可识别请求模式、分析响应耗时、定位传输瓶颈,并提出并行处理、请求合并、连接复用及超时调整等改进方案,适用于提升 API 调用效率和页面加载速度的性能调优场景。
支持超大规模语言模型训练,通过张量、流水线及专家并行等策略实现高效分布式计算,在H100上可达47% MFU,适用于2B至462B参数模型的生产级训练任务。
实现图像与文本的深度语义对齐,支持高质量图像描述生成、视觉问答、图文匹配及多模态对话,具备零样本迁移能力,无需微调即可在多种视觉语言任务上达到先进水平。
提供对 Claude Code本地对话历史文件的深度解析能力,支持按时间、内容、消息类型、工具调用、技能使用及 token 消耗等多维度查询与统计,适用于调试会话逻辑、分析模型行为和优化提示工程。
面向 NVIDIA GPU 的大语言模型推理加速方案,通过量化压缩、动态批处理、显存优化和多卡并行等技术,在 A100 H100 等硬件上实现十倍至百倍于 PyTorch 的吞吐提升与毫秒级延迟,适用于高并发生产环境下的低时延服务部署。
实现从产品需求文档到上线运营的全自动闭环,覆盖工程开发、质量保障、运维部署、安全审计、数据建模、业务运营、市场增长、人力资源及客户成功等全职能领域,支持多智能体并行协作、自动故障恢复、动态资源调度与持续反馈优化。
构建个人数字操作系统,支持内容创作、关系管理、目标追踪与会议准备等核心场景,通过结构化数据格式和渐进式信息加载机制,实现对个人品牌、知识资产、社交网络及日常运营的系统性AI辅助管理。
完成 Groq 开发工具包的安装与认证配置,支持通过命令行或环境变量注入 API 密钥,为后续调用 Groq 服务提供身份验证基础。
构建多智能体协作系统,支持按角色分工的自主代理团队协同完成复杂任务,具备任务顺序执行、分层调度、内置工具集成、多级记忆机制及生产级可观测性,适用于需要高效自动化协作的工程化场景。
指导用户创建融合领域专家方法论的高质量技能,通过系统化窄化任务范围、识别核心技能类型,并深度整合权威实践框架与黄金案例,确保产出具备明确质量标准且经得起多场景验证的解决方案。
提供大语言模型的全流程训练能力,支持监督微调、强化学习、视觉语言模型适配及LoRA高效参数微调,既可通过高阶 Cookbook 模式快速启动标准化训练,也允许通过底层 API 实现自定义训练逻辑与研究探索。
协调多个智能体在复杂工作流中的并行或串行协作,通过任务分解实现高效分工。根据任务依赖关系动态选择执行模式,独立任务并行加速,关联任务有序传递,结合文件传递指令与简要摘要返回,避免上下文污染并优化资源利用,适用于多视角验证、分阶段实施及大规模系统构建等场景。
从本地会话历史中提取并恢复代码内容,支持按关键词搜索历史记录、还原已删除文件及分析跨会话的修改轨迹,适用于在未保存的交互中找回丢失代码或追溯开发过程。空间复杂度低,可处理大尺寸日志文件。
根据文本描述生成高质量音乐与音效,支持旋律引导、风格迁移及立体声输出,适用于创作背景音乐、环境音效或基于参考音频的风格化音频生成,可在不同模型尺寸间权衡质量与资源消耗。
自动化维护 Tambo Cloud 中 AI SDK 模型配置,涵盖依赖包升级、新模型识别与调研、类型安全的配置注入,以及文档同步更新,确保模型支持始终与官方 SDK 保持一致,并通过子智能体协同提升多源信息整合与并行文件修改效率。
提供构建自主编程智能体的系统化设计范式,涵盖智能体核心循环架构、多模型协同机制、工具集成规范、分级权限控制、浏览器自动化能力、上下文动态管理及MCP协议对接等关键维度,支撑安全可控的端到端代码生成与执行闭环。
通过自然语言指令驱动代码生成、项目分析与 GitHub 协作,支持目录上下文注入、多模型选择及 MCP 工具集成,可自动解析日志中的代码块与响应内容,并适配安全认证与企业级环境配置。
实现基于AI的浏览器自动化,支持网页交互、多源研究与数据提取,能够学习并复用操作流程,适用于表单填写、趋势内容抓取及长期任务监控等场景,通过自然语言指令驱动全流程操作。