自动构建数据预处理流程,完成从原始数据中清洗、转换到验证的全链路操作,支持去重、补全缺失值、格式标准化及时间序列重构等任务,确保输出高质量数据用于机器学习与分析。

Skill
收录可复用的技能工作流,帮助你按场景快速找到方法。
当前显示第 54 / 67 页,共 1982 条结果,本页区间为 1591-1620,当前标签为 数据与分析。
支持 Perplexity 本地开发环境的快速搭建与持续迭代,涵盖项目结构初始化、环境变量配置、依赖安装、热重载服务启动及自动化测试集成,适用于需要高频调试和验证 Perplexity 集成逻辑的开发场景。
面向应用创意的深度市场与技术可行性验证,通过结构化提问明确用户背景、目标人群、竞品现状、核心功能及资源约束,结合网络检索获取最新行业数据与技术方案,生成涵盖市场分析、技术选型、成本估算和MVP规划的完整研究报告。
执行 Vast.ai 平台的核心业务流程,覆盖从初始化、任务执行到最终确认的完整链路,支持基于 API 的算力资源调度与管理,适用于主场景部署、核心功能构建及关键系统集成。
提供 TypeScript 和 Python 中 Perplexity SDK 的工程化实践方案,涵盖单例封装、安全调用包装、指数退避重试、多租户工厂模式及响应类型校验,提升集成稳定性、可维护性与团队协作效率。
构建系统化的攻击路径模型,通过分层结构呈现威胁场景的多种达成方式,结合难度、成本与检测风险等属性量化分析入侵可行性,识别关键薄弱环节并指导防御策略优化,适用于安全评估、渗透测试规划及风险沟通。
自动生成应用性能监控仪表盘,整合延迟、流量、错误率和饱和度等核心指标,可视化请求性能、资源占用及数据库缓存状态,支持在主流平台部署并适配业务需求,提升系统可观测性。
根据公司标准格式撰写各类内部沟通内容,支持进度汇报、领导层更新、项目通告、事件报告及常见问题解答等场景,通过加载对应模板确保风格统一,适用于需要规范化内部信息传递的业务沟通。
将用户提出的开发任务直接转交 GitHub Copilot 处理,支持通过命令行传入文本描述或读取 Markdown 文件内容来创建任务,实现从需求到智能编码辅助的无缝衔接。
具备自动识别数据集中异常值和离群点的能力,能够根据数据特征选择合适的机器学习算法,定位潜在错误、欺诈行为或系统异常,适用于金融风控、网络安全监控及工业质检等场景。
定义标准化的元数据结构,用于规范 AI 代理与命令的工作流程配置,通过统一的描述格式明确其用途、能力边界及执行逻辑,确保系统组件的一致性与可维护性。
提供数据管道中模式校验的自动化支持,涵盖校验逻辑设计、配置生成、代码实现及合规性验证,适用于 ETL、数据转换、工作流编排和流式数据处理等场景。
自动生成和优化数据库结构设计,提供符合行业规范的建模指导与生产级配置方案,适用于多语言后端架构中的数据存储规划,支持结合开发需求进行规范化验证与迭代改进。
自动生成符合 Chart.js 规范的图表配置代码,支持根据需求定制化生成可直接运行的可视化参数与结构,覆盖常见图表类型和交互设置,确保配置兼容最新版本并满足生产环境标准。
为任务完成提供可验证的证据生成能力,涵盖界面截图、测试结果解析、部署状态确认及多维度置信度评分,支持根据证据完整性自动判断是否通过验收或需人工复核。
根据用户需求自动生成机器学习模型服务配置,支持快速搭建高性能推理环境,涵盖配置生成、最佳实践推荐与合规性校验,适用于生产级部署场景。
实现跨插件的视觉风格复用,通过将完成的界面原型提炼为结构化 prose 描述,再根据目标插件参数动态生成适配布局的新原型,支持保存、应用、浏览、更新和删除美学模板。
实现 Clay 平台上的敏感数据全生命周期管理,涵盖 PII 自动识别与脱敏、分级分类存储、合规性数据保留与自动清理、GDPR/CCPA 数据导出及删除执行,并确保审计日志完整可追溯。
将复杂信息提炼为决策导向的精要报告,聚焦核心结论、关键发现与可执行建议,通过结构化格式支持高层快速研判,确保内容简洁清晰且直指行动方向。
能够深入分析应用各层性能表现,精准定位 CPU、内存、I/O 和数据库等关键环节的瓶颈根源,并提供针对性优化建议与修复方案,助力提升系统响应速度与资源利用效率。
通过性能追踪分析定位慢查询与 N+1 问题,支持对数据库访问路径进行优化,如识别缺失索引、冗余查询及低效逻辑,并指导关联预加载、索引添加与缓存策略的实施,持续验证优化效果。
部署 Vertex AI ADK 基础设施,支持安全网络、最小权限访问控制、Agent Engine 运行时及代码执行沙盒配置,集成 Memory Bank 与 VPC Service Controls,实现符合企业级安全要求的多智能体系统自动化部署与验证。
自动支持机器学习模型的 FastAPI 服务端点部署,涵盖从代码生成、配置编写到生产环境适配的全流程,遵循 MLOps 最佳实践,适用于模型推理服务搭建与运维优化。
配置自动化测试流水线,集成 GitHub Actions 与 Perplexity 测试框架,实现代码推送和合并请求时的自动验证、覆盖率统计及发布流程管控,确保生产环境部署前的集成稳定性。
提供 DynamoDB 表结构设计的自动化支持,涵盖建模指导、主键与索引策略建议、访问模式分析及生产级配置生成,严格遵循 AWS 官方最佳实践,适用于云原生应用的数据存储架构设计场景。
集成隐私优先的分析能力,支持前端与后端的事件追踪、功能开关控制及性能监控,适用于 Web 应用行为分析、LLM 调用可观测性以及自定义数据查询与报表生成。
实时监控应用全栈资源消耗,涵盖 CPU、内存、磁盘与网络 I/O、文件描述符、数据库连接及线程进程数量,自动识别性能瓶颈、资源失衡与成本浪费点,并提供针对性的优化建议和实例规格调整方案。
面向教育内容生成结构化课程摘要,通过苏格拉底式提问提炼核心概念、可迁移的思维模型、可操作的技术模式、典型认知误区及知识脉络,支持学习者快速回顾与即时参考,严格遵循最小必要内容原则,不复述讲解、不嵌入示例、不添加冗余引导。
自动完成 MLflow 实验追踪服务的初始化配置,涵盖后端存储、前端界面及环境依赖的部署与校验,生成符合生产标准的配置代码并提供最佳实践建议。
通过缓存响应、批量请求和连接池优化 Retell AI API 的调用性能,降低延迟并提升吞吐量,适用于高并发或对响应速度敏感的语音交互与智能体集成场景。