能够根据用户需求自动生成包含关键指标卡片、SVG 图表、进度条和数据表格的交互式 HTML 可视化看板,支持营收、性能、运营等多类业务指标的直观呈现与趋势分析。

Skill
收录可复用的技能工作流,帮助你按场景快速找到方法。
当前显示第 64 / 67 页,共 1982 条结果,本页区间为 1891-1920,当前标签为 数据与分析。
能够深入理解并检索 Linggen 生态中的代码结构、架构决策与全局策略,通过语义搜索和上下文增强提升查询精度,支持跨项目发现功能实现与设计约束,为开发提供一致性指导。
针对不同任务类型动态调整大语言模型参数,通过实证研究确定最优配置:定理证明需长上下文与适度随机性以支持推理链和策略探索,代码生成强调确定性输出,创意任务则提升随机性与生成长度,同时规避截断推理、温度过低及跳过规划等常见失效模式。
自动执行 PyTorch 模型的 TorchScript 导出任务,涵盖代码生成、配置编写、最佳实践指导及输出验证,支持从训练模型到可部署格式的一站式转换。
生成适用于多容器应用的 Docker Compose 配置,支持服务编排、网络与存储管理、健康检查及资源限制,满足生产环境部署需求。
提供机器学习模型评估指标的自动化支持,涵盖从指标选择到代码实现的完整流程,能够生成符合行业标准的评估方案并验证结果有效性,适用于各类训练任务中的性能分析与优化场景。
自动生成机器学习训练中的 ROC 曲线绘制方案,支持数据预处理、模型评估与可视化实现,适用于二分类性能分析任务,输出符合行业标准的可复用代码。
自动处理 Triton 推理配置相关任务,涵盖配置编写、最佳实践指导、生产级代码生成及合规性验证,支撑机器学习模型的高效部署与服务。
提供敏感数据的全生命周期安全管理,涵盖自动分类分级、PII 识别与脱敏、合规性审计日志、可配置的数据保留策略及 GDPR 用户权利响应机制,确保在 Lindy AI 环境中满足隐私法规要求。
针对 Ideogram API 响应缓慢、吞吐不足等问题,提供缓存策略、请求批量合并、连接池配置及分页优化能力,支持在高并发或低延迟敏感场景下显著提升调用效率与资源利用率。
自动生成变更请求相关的配置与代码,提供符合企业级规范的最佳实践指导,支持项目管理、合规性审查及系统集成场景下的流程自动化,确保输出结果经过标准校验并可直接用于生产环境。
自动构建数据叙事框架,支持从需求分析、指标定义、SQL查询设计、可视化方案到业务洞察的全流程编排,兼顾行业规范与可交付代码生成。
讲述编程或科技相关的幽默段子,内容保持轻松干净,可适当加入笑点表情,用于回应用户的搞笑请求,确保输出符合技术趣味性与可读性平衡的场景需求。
具备对人工智能模型、数据集及代码进行伦理合规性与公平性自动评估的能力,可识别潜在偏见、分析跨群体差异、生成问题诊断报告并提供改进建议,支撑负责任的人工智能研发与落地实践。
通过语义与关键词结合的方式检索历史对话内容,支持按时间范围、相关性或跨代理主体进行信息定位,可精准回溯先前讨论的上下文、确认过往陈述细节,并能识别特定话题的参与方,适用于需要恢复长期记忆或追溯决策过程的场景。
自动处理异常检测任务,提供从数据分析、模式识别到代码生成的全流程支持,涵盖数据查询、可视化及统计建模等场景,并输出符合行业规范的配置与验证结果。
提供 Fireflies.ai 常见错误的诊断与修复能力,涵盖认证失败、请求超时、速率限制等典型问题,支持通过日志分析、环境变量检查、网络连通性验证等方式定位根因并实施对应解决方案。
自动分析性能测试中的百分位数指标,支持负载测试、压力测试及基准测试场景下的指标提取、结果解读与优化建议,生成符合行业标准的可交付配置和代码。
自动管理 FairDB PostgreSQL 数据库的全生命周期备份与恢复,基于 pgBackRest 和 Wasabi S3 实现加密、压缩、增量归档及异地冗余;支持按需执行全量/差异/增量备份、任意时间点恢复、定期校验与自动化巡检,并持续优化存储成本与恢复时效。
自动监控机器学习模型的预测行为,检测数据漂移与性能退化,持续保障线上服务稳定性,适用于需要长期维护模型可靠性的生产环境。
自动构建机器学习超参数优化实验框架,支持主流训练流程的配置生成与验证,适用于需要高效调参的工作场景。
为 Kling AI 集成提供端到端的可观测性支持,涵盖请求响应日志记录、全链路追踪、性能耗时统计与诊断报告生成,便于快速定位异常、分析延迟瓶颈并验证集成行为。
根据机器学习训练需求自动提供学习率调度策略的实现与优化建议,涵盖主流框架下的参数配置、代码生成及最佳实践指导,适用于训练过程中的动态学习率调整场景。
定义高密度智能体技能的创建规范,强调信息密度与令牌效率的平衡,通过渐进式加载、指令式压缩和三级资源分层实现上下文精简,适用于多模型环境下的标准化技能开发与部署。
提供 Kafka 流式数据处理的自动化支持,涵盖流处理器配置、实时数据转换、ETL 流程编排及生产级代码生成,适用于构建高可靠性的数据管道系统。
简化分布式训练流程,通过统一接口支持多种并行策略与混合精度计算,自动处理设备分配和梯度同步,仅需少量代码修改即可实现跨单机多卡、多节点乃至 TPU 的高效模型训练。
自动化处理 AWS 环境下的工作流编排任务,支持从设计到部署的全流程指导,生成符合最佳实践的可执行配置,适用于 serverless 架构与云服务集成场景。
自动化构建和配置 BigQuery ML 模型,涵盖从数据准备、模型训练到部署验证的完整流程,生成符合生产标准的代码与配置,并遵循 Google Cloud 平台的最佳实践。
通过结构化对话收集用户在技术背景、沟通习惯、工作方式、质量偏好、个人禁忌及工具使用等方面的核心诉求,动态调整提问节奏与深度,最终生成标准化的用户画像并持久化存储,为后续所有交互提供个性化行为依据。
自动化维护数据目录,支持对元数据进行读取、写入、编辑及脚本化处理,适配 ETL 流程、数据转换、工作流编排与流式数据处理等场景。