采用 OpenTelemetry 作为 LLM 可观测性标准:语义约定与跨管道一致监控
通过定义 traces、metrics 和 logs 的语义约定,推动 OpenTelemetry 成为 LLM 可观测性的标准,实现一致监控与生产问题如延迟和幻觉的调试。
共 44 篇文章
通过定义 traces、metrics 和 logs 的语义约定,推动 OpenTelemetry 成为 LLM 可观测性的标准,实现一致监控与生产问题如延迟和幻觉的调试。
利用 Qlib 平台构建高效量化交易机器学习管道,结合监督学习、市场动态建模、强化学习,并通过 RD-Agent 实现自动化 R&D 工作流,提供工程化参数与最佳实践。
面向开源 GPT 模型的对齐训练,给出低内存 RL 管道的 Unsloth 实现、量化 LoRA 参数与分布式配置要点。
通过反事实估计在 GRAPE 中实现 off-policy 评估指标,用于生产 LLM 管道中安全评估策略变化,而无需完整重训。
在 DeepFabric 框架下,构建可扩展管道生成具有可控属性的合成数据集,并通过验证指标确保其适用于 ML 训练增强。
面向真实世界任务,给出 GDPVal 基准工程化参数与多样数据集整合要点。
SedonaDB 利用 Rust 和 Apache Arrow 构建高性能地理空间 DataFrame,支持高效 joins、空间索引和大规模数据集分析。本文探讨实现细节、可落地参数及监控要点。
介绍Hyb混合误差指标的设计原理、实现方法及工程化参数,帮助AI回归模型实现尺度不变的鲁棒评估。
利用 nvmath-python 的高级 Matmul API,将偏差加法融合进 cuBLASLt 矩阵乘法内核,减少内存往返与内核启动开销,实测推理性能提升显著。
剖析 aipyapp 如何通过无代理架构与本地化执行,自动化 Python 项目的构建、测试与部署流程,提供关键配置参数与安全监控清单。
详解SRU与并行扫描算法如何借助CUDA实现RNN训练复杂度从O(T)降至O(log T),并提供可落地的参数配置与性能监控清单。
如何利用Hugging Face生态(Leaderboard、Evaluate库)构建超越简单基准的实用评估框架,聚焦真实用户场景与模型可用性。
解析微软AI-For-Beginners课程如何通过模块化Jupyter Notebook与渐进式Lab设计,实现零基础到多模态AI的12周工程化教学流水线。
详解如何基于微软开源工具 markitdown,搭建高效、可扩展的 Office 文档批量转换流水线,涵盖环境配置、命令行批量脚本、LLM/Azure 集成及风险监控要点。
详解如何利用微软AI入门课程的预设Jupyter Notebook结构,构建可复用、可追踪的模块化教学流水线,提升AI教学效率。
介绍在 R 中实现二维 Ising 模型的蒙特卡洛模拟管道,包括采样优化和临界指数分析,帮助理解相变行为。
利用 LLaMA-Factory 的 PEFT、QLoRA 和多 GPU 编排,快速实现资源高效的模型适应与部署。
指导构建 Unsloth 4-bit QLoRA 管道,集成梯度检查点和低 RAM 优化,实现 Llama 3 高效微调。
在消费级 GPU 上利用 Unsloth 实现 Llama3 的 RLHF/DPO 微调,结合 4-bit QLORA、梯度检查点和奖励模型集成。
在 LLaMA-Factory 框架下,利用 QLoRA 技术构建 SFT 和 DPO 管道,实现低资源环境下的开源 LLM 指令调优,提供数据 curation、参数配置和评估策略。
利用 nvmath-python 集成 cuBLAS 和 cuSOLVER,实现 GPU 优化的张量操作和稀疏求解器,提升模型训练的可扩展性。
在 RunRL 平台上实现分布式 RL 训练的工程实践,聚焦 actor 管理、优化策略和容错机制,提供可落地参数和监控要点。
通过 Unsloth 的自定义内核,在消费级 GPU 上实现 LLM 微调和 RLHF 的 2x 加速与 70% VRAM 节省,支持 Llama 4、Qwen3 等模型的本地高效训练。
通过 Unsloth 的自定义 CUDA 内核和量化技术,实现 Llama/Qwen 模型高效微调,节省 70% VRAM 并加速 2 倍。
介绍如何利用 markitdown 在 Python ETL 中转换 Office 文档和 PDF,保留表格和图像结构,便于 RAG 数据摄取和 LLM 训练,提供实现参数与最佳实践。
工程化 Python 管道,将 Word、Excel 和 PPT 转换为结构化 Markdown,保留表格、图像和布局,支持高效 LLM 数据准备与 RAG 摄取。
利用Happy-LLM教程,从零实现PyTorch LLM,包括分词训练、Transformer搭建、DDP分布式策略及LoRA领域微调参数。
利用 Azure SDK for Python 的异步客户端、AAD 认证和批量操作,集成存储、计算和 AI 服务,实现高效云原生开发,提供代码示例与最佳实践。
基于 EPFL 机器学习课程,探讨 PyTorch DDP 在大规模模型训练中的工程实践,包括数据并行机制、优化策略、容错扩展及同步要点。
基于 EPFL 机器学习课程实验,探讨 PyTorch DDP 的数据并行、多 GPU 同步和容错梯度聚合的最佳实践与工程参数。
使用Gitleaks构建自动化Git泄露检测管道,清洗SWE-bench数据集,提高LLM代码生成基准的公平性和可重现性。
基于 DeepCodeBench 数据集,构建针对真实代码库的 Q&A 评估管道,集成检索机制提升 LLM 上下文感知准确率,提供落地参数与监控要点。
针对跨平台 ML 管道中的 CUDA/CUDNN 绑定,提供 ARM/x86 一致性的工程化修复方案,包括编译错误解决和运行时匹配参数。
面向Windows/Linux/macOS/ARM/x86,提供使用自定义CMake工具链、vcpkg隔离和CUDA/ROCm变体处理的PyTorch构建指南,确保ML部署无缝。
通过合并队列序列化 PR 合并,实现安全并行测试和零宕机部署,并在冲突时使用 rebase 解决。
回顾 Mergify 合并队列的起源与动机,分析早期设计挑战,并给出大规模 CI/CD 下的配置参数与监控要点。
Hugging Face AI Sheets 实现无代码数据集工程,支持 AI 驱动的批量丰富与转换,并无缝集成 ML 管道,提供部署参数与操作清单。
面向 LLM RAG 系统,使用 Pathway 构建从 Kafka 流到 PostgreSQL 的实时同步 ETL 管道,实现低延迟更新、自动 schema 演化及错误恢复。
探讨在 Pathway 框架下实现 LLM 应用的容错数据摄取机制,包括自动模式演进、实时多源同步以及基于 Docker 的可扩展 RAG 管道部署策略。
面向 AI 代理编排,给出 n8n 模块化工作流构建、动态节点集成与错误恢复执行路径的工程化参数与监控要点。
基于 Pathway 框架,从 Kafka、PostgreSQL 和 API 实时同步数据到向量存储,支持低延迟动态 RAG 更新,提供工程化参数和监控清单。
基于 Pathway 框架,构建从 Kafka 到 PostgreSQL 的实时数据同步管道,实现低延迟查询优化与动态 RAG 更新。
针对多模态数据流,利用 Daft 的分布式查询引擎,提供容错机制、规模化参数与统一处理管道的工程实践要点。
使用 Apache Airflow 构建容错执行的 DAG 管道,提供 authoring、scheduling 和 monitoring 的工程化参数。