# 分类：ai-systems

> 该分类下的文章按时间倒序排列，便于按主题继续深挖。

## 页面摘要
- 路径: /categories/ai-systems/page/64/
- 当前页: 64 / 75
- 文章总数: 5960
- 当前页文章数: 80

## 快速导航
- [首页](/)
- [分类索引](/categories/)
- [归档索引](/archive/)

## 本页文章
### [Implementing Custom JAX Transformations in Tunix for Low-Latency LLM Inference](/posts/2025/10/04/implementing-custom-jax-transformations-in-tunix-for-low-latency-llm-inference/)
- 日期: 2025-10-04T10:16:17+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨在 Tunix 框架中使用自定义 JAX 变换实现动态图剪枝和算子融合，以实现边缘设备上 LLM 推理的低延迟优化，提供工程参数和监控要点。

### [序贯 LoRA 中的正交投影：任务参数隔离以最小化灾难性遗忘](/posts/2025/10/04/orthogonal-projections-in-sequential-lora-for-task-isolation/)
- 日期: 2025-10-04T08:16:40+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在多领域微调中，使用正交投影实现序贯 LoRA 来隔离任务特定参数，避免灾难性遗忘，提供工程化实现参数和监控要点。

### [Anthropic 上下文工程：RAG 与压缩优化 AI 代理长上下文提示](/posts/2025/10/04/anthropic-context-engineering-ai-agents-rag-compression/)
- 日期: 2025-10-04T07:01:26+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 RAG 动态检索和压缩技术，优化 AI 代理的长上下文提示，确保多步推理任务的连贯性，提供工程参数与监控要点。

### [无悔序贯 LoRA 适配器：通过辅助损失最小化灾难性遗忘](/posts/2025/10/04/regret-free-sequential-lora-adapters/)
- 日期: 2025-10-04T06:46:04+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在多任务 LLM 适应中，使用辅助损失项实现悔恨最小化的序贯 LoRA 微调，缓解灾难性遗忘，提供工程参数和监控要点。

### [工程化无遗憾 LoRA 适配器：防止大语言模型顺序微调中的灾难性遗忘](/posts/2025/10/04/engineering-regret-free-lora-adapters-sequential-fine-tuning/)
- 日期: 2025-10-04T06:31:31+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对大语言模型顺序微调中的灾难性遗忘问题，设计无遗憾 LoRA 适配器，提供工程参数、监控要点与回滚策略。

### [Claude AI 驱动的 Factorio 自主游戏：资源管理和工厂自动化的代码生成集成](/posts/2025/10/04/integrating-claude-ai-code-generation-for-autonomous-factorio-gameplay/)
- 日期: 2025-10-04T06:16:12+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Claude AI 的代码生成功能实现 Factorio 的自主代理，聚焦资源分配、工厂扩展和实时决策的工程化参数与监控策略。

### [Jules 远程编码代理 API：基于安全 WebSocket 和沙箱运行时的工程实践](/posts/2025/10/04/jules-remote-coding-agent-api/)
- 日期: 2025-10-04T05:31:07+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Jules 代理的远程代码生成与执行 API 工程设计，利用安全 WebSocket 连接和沙箱运行时实现协作 IDE 集成，提供参数配置与监控要点。

### [构建中文金融交易的多代理 LLM 系统：市场分析、策略执行与风险管理](/posts/2025/10/04/building-multi-agent-llm-systems-for-chinese-financial-trading/)
- 日期: 2025-10-04T04:31:07+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用多代理 LLM 框架实现中文金融交易的智能化决策，聚焦市场分析、策略执行和风险管理的专职角色分工与实时数据应用。

### [Tunix 中使用 JAX 实现量化感知后训练：边缘设备上部署蒸馏 LLM](/posts/2025/10/04/quantization-aware-post-training-tunix-jax-edge-llms/)
- 日期: 2025-10-04T04:06:03+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对蒸馏后的 LLM 在边缘设备的部署，利用 Tunix 和 JAX 进行量化感知后训练，提供位宽选择、校准策略及精度损失最小化参数配置。

### [Triton内核命名嵌入Cutlass：自动调用FP8 Tensor Core GEMM路径，实现LLM多头注意力100 TFLOPS加速](/posts/2025/10/04/embedding-cutlass-in-triton-kernel-names-for-fp8-tensor-core-gemm-optimization/)
- 日期: 2025-10-04T04:01:44+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 介绍Triton中通过内核命名trick自动调用CUTLASS优化的FP8 GEMM路径，无需代码修改即可在LLM serving的多头注意力中获得100 TFLOPS加速，提供工程化参数和落地清单。

### [在 Tunix 中集成 Flax 构建自定义 LLM 层](/posts/2025/10/04/flax-integration-custom-layers-in-tunix/)
- 日期: 2025-10-04T03:31:18+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Flax 在 Tunix 的 JAX 原生后训练管道中构建自定义 LLM 层，实现模块化模型扩展，提供工程化参数与监控要点。

### [在 Airweave 中工程化模块化 LLM Agents：跨应用 API 搜索的动态链式、重试与错误恢复](/posts/2025/10/04/engineering-modular-llm-agents-in-airweave-for-cross-app-api-searching/)
- 日期: 2025-10-04T02:03:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Airweave 构建模块化 LLM agents，实现跨应用动态 API 链式调用，聚焦自适应重试机制与错误恢复策略，确保生产部署可靠性。

### [Airweave 中的动态工具发现与自适应查询](/posts/2025/10/04/dynamic-tool-discovery-and-adaptive-querying-in-airweave/)
- 日期: 2025-10-04T01:48:18+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Airweave 中利用 MCP 协议构建可扩展 LLM agents，实现动态 API 工具发现和查询适应，支持跨应用的无缝搜索集成。

### [工程化可扩展的自托管照片视频管理：Immich ML 自动标签、面部识别与重复检测](/posts/2025/10/04/engineering-scalable-self-hosted-photo-management-with-immich-ml-auto-tagging/)
- 日期: 2025-10-04T01:35:38+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Immich 框架，探讨 ML 驱动的媒体组织工程实践，包括自动标签生成、面部聚类与重复检测的可扩展配置。

### [使用 ViT 模型实现图像数学公式到 LaTeX 转换](/posts/2025/10/04/vit-equation-to-latex/)
- 日期: 2025-10-04T00:48:27+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 ViT 的公式 OCR 系统，支持手写与印刷公式解析，fine-tuning 于 Im2LaTeX 数据集，实现 80%+ 符号检测准确率。

### [使用 Maia ASIC 逐步替换 Azure 中的 AMD/Nvidia GPU：工程策略与优化参数](/posts/2025/10/04/maia-asic-gpu-replacement-strategy/)
- 日期: 2025-10-04T00:03:20+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 CTO 愿景，分析 Maia ASIC 在 Azure AI 训练中的替换策略，包括经济模型、 rollout 清单和集成参数。

### [为Azure规模LLM训练/推理工程化Maia ASIC](/posts/2025/10/03/engineering-maia-asics-for-azure-scale-llm-training-and-inference/)
- 日期: 2025-10-03T23:47:16+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向Azure规模LLM工作负载，优化Maia ASIC的张量核心、HBM集成与自定义ND fabric，实现100x效率提升的工程参数与监控要点。

### [使用 Triton 实现 Cutlass 风格的 FP8 GEMM 内核加速](/posts/2025/10/03/triton-fp8-gemm-cutlass-acceleration/)
- 日期: 2025-10-03T22:02:07+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Triton 中实现 FP8 GEMM 内核，借鉴 Cutlass 命名与优化策略，利用 Tensor Cores 实现 100 TFLOPS 加速，提升 LLM 高效推理。

### [Tunix JAX-Flax Integration for LLM Post-Training](/posts/2025/10/03/tunix-jax-flax-integration-llm-post-training/)
- 日期: 2025-10-03T21:33:07+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Tunix 中集成 Flax 模型与自定义 JAX 原语，实现可扩展的 LLM 后训练，支持高级损失函数和 TPU 上的分布式优化器，提供工程参数和监控要点。

### [多代理 LLM 在中文金融交易中的工程化应用](/posts/2025/10/03/multi-agent-llm-chinese-financial-trading-agents/)
- 日期: 2025-10-03T21:17:56+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 工程化角色专用 LLM 代理，用于中国股票市场分析、预测和自动化交易，集成本地化数据与多跳推理。

### [面向代理式 AI 的图数据库工程：动态模式演化、实时遍历优化与 LLM 推理链集成](/posts/2025/10/03/engineering-graph-databases-for-agentic-ai-dynamic-schema-evolution-real-time-traversal-multi-hop-queries/)
- 日期: 2025-10-03T20:47:12+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨如何为代理式 AI 工作流工程化图数据库，涵盖动态 schema 演化、实时遍历优化，以及与 LLM 推理链的集成，支持多跳查询的落地参数与最佳实践。

### [使用 Airweave 工程化模块化 AI Agents 接口任意 App API 进行语义搜索](/posts/2025/10/03/engineering-modular-ai-agents-for-app-api-search-with-airweave/)
- 日期: 2025-10-03T20:06:57+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨如何利用 Airweave 构建模块化 AI agents，实现对任意应用 API 的语义搜索、数据提取与自动化，结合 LLM 工具调用和编排的最佳实践。

### [使用 Parlant 工程化部署 LLM 代理：模块化架构与快速部署](/posts/2025/10/03/engineering-deployable-llm-agents-with-parlant-modular-architecture/)
- 日期: 2025-10-03T19:47:16+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Parlant 框架在 LLM 控制代理工程中的应用，聚焦模块化设计、分钟级部署及生产集成模式。

### [在 Triton 中利用 Cutlass 内核命名解锁 FP8 张量核心加速](/posts/2025/10/03/leverage-cutlass-kernel-naming-in-triton-for-fp8-tensor-core-acceleration/)
- 日期: 2025-10-03T19:16:37+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 借助 Triton 借鉴 Cutlass 内核命名，实现 FP8 GEMM 优化，在 LLM 多头注意力推理中获得约 100 TFLOPS 加速，提供工程参数与监控要点。

### [Orchestrating AI Agents with Microsoft Agent Framework: Python and .NET Support](/posts/2025/10/03/orchestrating-ai-agents-with-microsoft-agent-framework-python-and-dotnet-support/)
- 日期: 2025-10-03T18:47:36+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向多代理工作流，给出 Microsoft Agent Framework 的 Python/.NET 集成、编排参数与工具配置要点。

### [Triton 中 Cutlass 命名内核的 FP8 张量操作剖析：通过运行时优化解锁 100 TFLOPS 加速](/posts/2025/10/03/triton-fp8-cutlass-benchmarking/)
- 日期: 2025-10-03T17:48:20+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Triton 中 FP8 精度下 Cutlass 风格内核的性能剖析与基准测试，提供运行时优化参数和硬件利用分析，实现高 TFLOPS 加速。

### [使用 JAX 在 Tunix 中实现量化感知后训练：针对边缘 LLM 的 4/8 位压缩](/posts/2025/10/03/quantization-aware-post-training-in-tunix-using-jax-for-edge-llm-compression/)
- 日期: 2025-10-03T17:34:02+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Tunix 框架下，利用 JAX 自动微分构建量化感知的后训练管道，实现 4/8 位 LLM 压缩，聚焦校准数据集、混合精度内核和低延迟推理优化，适用于移动/边缘设备部署。

### [Pathway 中构建容错实时 ETL 用于 LLM RAG：数据漂移、模式演进与连接器故障的自动恢复](/posts/2025/10/03/building-fault-tolerant-real-time-etl-in-pathway-for-llm-rag-automatic-recovery-from-data-drift-schema-evolution-and-connector-failures/)
- 日期: 2025-10-03T16:33:33+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向实时 LLM RAG 应用，介绍 Pathway ETL 的容错设计，包括自动恢复机制与工程参数配置。

### [Granite 4.0 中 Mamba-Transformer 混合架构：实现 O(1) 序列扩展的工程实践](/posts/2025/10/03/hybrid-mamba-transformer-architecture-in-granite-4-0-engineering-o-1-sequence-scaling/)
- 日期: 2025-10-03T16:09:04+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 IBM Granite 4.0 LLM 的混合 Mamba-Transformer 架构，如何通过状态空间块与注意力机制融合，实现推理时 O(1) 序列长度扩展，同时保持自回归训练稳定性。提供可落地参数、监控要点与集成指南。

### [在 Triton 内核中使用 Cutlass 命名实现自定义 FP8 操作的加速](/posts/2025/10/03/using-cutlass-naming-in-triton-kernels-for-custom-fp8-ops/)
- 日期: 2025-10-03T16:06:22+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Cutlass 命名在 Triton 内核中解锁自定义 FP8 操作的 100 TFLOPS 加速，聚焦融合注意力等超出 GEMM 的应用。

### [通过 CUTLASS 命名约定在 Triton 中实现 FP8 GEMM 内核](/posts/2025/10/03/triton-cutlass-fp8-gemm-integration/)
- 日期: 2025-10-03T15:21:41+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向 AI 推理管道，通过 CUTLASS 命名触发 Triton FP8 GEMM 优化，实现高吞吐量通用线性代数操作的参数与监控要点。

### [JAX-Native LLM Distillation with vmap and pmap on TPU](/posts/2025/10/03/jax-native-llm-distillation-with-vmap-pmap-on-tpu/)
- 日期: 2025-10-03T14:48:11+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Tunix 库，利用 JAX 的 vmap 进行向量化评估和 pmap 实现多 TPU 并行训练，优化 LLM 后训练效率，提供工程化参数和监控要点。

### [Tunix 中 JAX 原生后训练流水线：量化、对齐与 TPU 优化推理服务](/posts/2025/10/03/jax-tunix-post-training-optimization-quantization-alignment-tpu/)
- 日期: 2025-10-03T14:08:47+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Tunix 构建 JAX 原生后训练管道，实现量化、对齐优化，并在 TPU 上通过 vmap/pmap 并行高效推理服务。

### [Granite 4 中 Mamba-Transformer 混合架构的集成与优化](/posts/2025/10/03/integrating-hybrid-mamba-transformer-in-granite-4/)
- 日期: 2025-10-03T13:49:08+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Granite 4 中融合 Mamba 与 Transformer，实现高效长上下文处理，降低企业部署内存足迹，提供关键参数与清单。

### [利用 Cutlass 内核命名惯例在 Triton 中实现 FP8 张量核的多头注意力 100 TFLOPS 加速](/posts/2025/10/03/leveraging-cutlass-kernel-naming-in-triton-for-100-tflops-fp8-tensor-core-speedup-in-multi-head-attention/)
- 日期: 2025-10-03T13:32:55+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 LLM 推理中，利用 Triton 借鉴 Cutlass 内核命名优化 FP8 张量核，实现多头注意力 100 TFLOPS 加速，提供落地参数和监控策略。

### [Claude SDK 中实现有状态多代理工具链编排与持久化](/posts/2025/10/03/implementing-stateful-multi-agent-tool-chaining-in-claude-sdk/)
- 日期: 2025-10-03T13:19:07+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Claude Agent SDK 构建顺序工具链的多代理系统，实现状态持久化以支持复杂 AI 工作流。

### [从零实现最小 Transformer LLM](/posts/2025/10/03/implement-minimal-transformer-llm-from-scratch/)
- 日期: 2025-10-03T11:50:23+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 使用 PyTorch 从头构建小型 Transformer 语言模型，包括自定义 BPE 分词器、GPT-2 式架构，并在莎士比亚数据集上训练的核心组件。

### [在 Tunix 中使用 vmap/pmap 工程化 JAX 原生蒸馏工作流：多 TPU 并行 LLM 对齐与微调](/posts/2025/10/03/jax-native-distillation-workflows-in-tunix-using-vmap-pmap-for-multi-tpu-parallel-llm-alignment-and-fine-tuning/)
- 日期: 2025-10-03T10:32:43+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向多 TPU 环境，给出 Tunix 中 JAX vmap/pmap 驱动的蒸馏工作流参数与并行策略。

### [Claude Agent SDK 中并行工具调用的编排：多API实时数据聚合实践](/posts/2025/10/03/orchestrating-parallel-tool-calls-in-claude-agent-sdk/)
- 日期: 2025-10-03T10:03:51+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用Claude Agent SDK的异步机制，实现并行工具调用，从多个API高效聚合实时数据，支持多步代理工作流中的高效执行。

### [使用 TypeScript 编排可扩展 AI 代理工作流：Sim 平台的节点式 UI 与并行执行](/posts/2025/10/03/orchestrating-extensible-ai-agent-workflows-in-typescript/)
- 日期: 2025-10-03T09:49:06+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Sim 是一个开源平台，支持通过节点式 UI 构建 AI 代理工作流，实现并行执行、状态持久化和灵活部署。文章探讨其 TypeScript 实现、云端与自托管选项，以及工程化参数与监控要点。

### [Tunix 中使用 JAX pmap 实现多 TPU LLM 后训练分布式管道](/posts/2025/10/03/distributed-training-jax-pmap-tunix-multi-tpu/)
- 日期: 2025-10-03T07:47:34+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Tunix 框架下，利用 JAX pmap 构建分布式 LLM 后训练系统，实现多 TPU 同步、梯度聚合及容错扩展，提供工程参数与监控要点。

### [动态张量重排与微批处理：实现多租户LLM服务中的100% GPU利用率](/posts/2025/10/03/dynamic-tensor-reshuffling-micro-batching-100-gpu-utilization-multi-tenant-llm/)
- 日期: 2025-10-03T07:04:40+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于CRFM Splinter的硬件优化策略，聚焦动态张量重排和微批处理在多租户LLM推理中的应用，提升GPU利用率至近100%，并给出工程参数与风险控制。

### [使用 Pathway Python API 实现流式数据管道中的增量嵌入更新与近似最近邻索引](/posts/2025/10/03/implement-incremental-embedding-updates-ann-indexing-streaming-rag-pathway/)
- 日期: 2025-10-03T06:32:45+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向流式 RAG 查询，给出 Pathway 中增量嵌入更新与 ANN 索引的 Python API 实现参数与监控要点。

### [多租户 LLM 服务中的 Tensor Core 调度与内存带宽分区优化](/posts/2025/10/03/tensor-core-scheduling-and-memory-bandwidth-partitioning-for-multi-tenant-llm-serving/)
- 日期: 2025-10-03T05:32:36+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨在多租户 LLM 服务中，通过 Tensor Core 调度和内存带宽分区最大化 GPU 利用率，减少空闲周期的具体工程参数和监控要点。

### [Integrating Neutral-Atom Processors with Superconducting Qubits for Hybrid Quantum Systems](/posts/2025/10/03/integrating-neutral-atom-processors-with-superconducting-qubits-for-hybrid-quantum-systems/)
- 日期: 2025-10-03T04:32:58+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Google 与 QuEra 合作下，中性原子处理器与超导量子比特的整合，实现可扩展错误校正和 AI 加速量子模拟的工程参数与监控要点。

### [精选 LLM 微调、RAG 实现与代理系统部署的实用 Colab 笔记本资源](/posts/2025/10/03/curating-practical-colab-notebooks-for-llm-fine-tuning-rag-agentic-systems/)
- 日期: 2025-10-03T04:07:41+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 AI 工程实践，汇集 Colab 笔记本资源，涵盖 LLM 高效微调、RAG 高级检索与代理系统构建，帮助开发者快速原型到生产。

### [Gemini 3.0 Pro 多模态能力基准测试：自定义评估套件与错误分析](/posts/2025/10/03/benchmarking-gemini-3-0-pro-multimodal-capabilities/)
- 日期: 2025-10-03T04:02:39+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过API集成自定义评估套件，测试Gemini 3.0 Pro在代码生成、数学推理和视觉语言任务上的表现，提供工程化参数和错误分析要点。

### [MoneyPrinterTurbo: Building Modular LLM-Driven Pipelines for Automated Short Video Creation](/posts/2025/10/03/moneyprinterturbo-ai-video-generation-pipeline/)
- 日期: 2025-10-03T02:32:12+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探索MoneyPrinterTurbo的AI视频生成管道，整合脚本生成、TTS、视觉素材和唇同步渲染，提供低延迟优化的工程参数和监控要点。

### [动态张量重排与微批处理：实现多租户LLM服务中的100% GPU利用率](/posts/2025/10/03/dynamic-tensor-reshuffling-and-micro-batching-for-100-gpu-utilization-in-multi-tenant-llm-serving/)
- 日期: 2025-10-03T02:18:55+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过动态张量重排和微批处理技术，在多租户LLM服务中实现并发模型打包，提升GPU利用率至100%。本文探讨工程参数、监控要点及落地清单。

### [构建终端 AI 编码代理：Claude Code 的自然语言任务执行与 Git 集成](/posts/2025/10/03/building-terminal-based-ai-coding-agent-with-claude-code/)
- 日期: 2025-10-03T02:07:41+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向终端开发环境，介绍 Claude Code 如何通过自然语言解析代码库、执行任务、集成 Git 工作流，并提供解释机制，以加速开发周期。

### [LTX-Video 中张量并行与动态批处理的优化：实现亚秒级视频生成延迟](/posts/2025/10/03/optimizing-tensor-parallelism-dynamic-batching-ltx-video/)
- 日期: 2025-10-03T01:47:20+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 LTX-Video 扩散视频合成管道中，通过张量并行和动态批处理优化 GPU 资源利用，实现 sub-second 延迟的工程实践与参数配置。

### [RAG 讣告：代理式衰落分析](/posts/2025/10/02/the-rag-obituary-agentic-decline-analysis/)
- 日期: 2025-10-02T23:48:23+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过代理多跳推理和上下文窗口扩展，考察 RAG 的概念性过时，聚焦检索准确失败模式与长上下文工程权衡。

### [工程化可扩展 n8n 模板：集成 AI 实现多应用自动化如 Gmail 到 Slack 通知](/posts/2025/10/02/engineering-extensible-n8n-templates-with-ai-for-multi-app-automations/)
- 日期: 2025-10-02T23:17:57+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向生产级工作流，给出 n8n 模板的 AI 集成、自定义节点与错误处理的最佳实践。

### [上下文窗口扩展作为 RAG 替代的多跳推理基准分析](/posts/2025/10/02/context-window-scaling-as-rag-alternative-for-multi-hop-reasoning/)
- 日期: 2025-10-02T22:20:18+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基准扩展上下文窗口在代理 LLM 管道中作为 RAG 替代的多跳推理，分析无外部检索下的延迟-准确性权衡。

### [LTX-Video GPU加速推理优化：生产低延迟视频生成](/posts/2025/10/02/optimizing-gpu-accelerated-inference-for-ltx-video-low-latency-production/)
- 日期: 2025-10-02T22:07:23+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对LTX-Video模型，提供GPU加速推理优化策略，支持低延迟视频生成与实时编辑工作流，包括量化配置、多尺度管道和性能监控要点。

### [OpenTSLM 在实时 IoT 异常检测中的流式推理工程化](/posts/2025/10/02/engineering-streaming-inference-opentslm-iot-anomaly-detection/)
- 日期: 2025-10-02T21:03:16+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 OpenTSLM 构建实时 IoT 异常检测流式推理管道，强调低延迟 token 流式、自适应 KV 缓存管理和边缘部署优化。

### [实现角色专精 LLM 代理的中国金融交易管道：实时数据集成与多跳推理](/posts/2025/10/02/implementing-role-specialized-llm-agents-for-chinese-financial-trading/)
- 日期: 2025-10-02T20:47:05+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨如何在中文金融交易中使用多代理 LLM 框架，实现角色分工、实时数据馈送、多跳决策及合规回测，提供工程参数与清单。

### [使用 Sim 工程化模块化 AI 代理工作流](/posts/2025/10/02/engineering-modular-ai-agent-workflows-with-sim/)
- 日期: 2025-10-02T20:17:19+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Sim 平台以 TypeScript 为基石，提供低代码工具快速构建多代理工作流，支持实时协作和自托管部署。本文聚焦工程实践，给出组成、执行和优化的可操作参数。

### [实现全GPU利用率训练：动态调度与内核优化实践](/posts/2025/10/02/full-gpu-utilization-training/)
- 日期: 2025-10-02T19:46:51+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在大型AI训练中，通过流水线并行和自适应批处理结合动态调度，实现95%+ GPU效率的工程参数与优化策略。

### [使用 Handy 构建可扩展离线语音识别：Silero VAD 与 Whisper 集成](/posts/2025/10/02/building-extensible-offline-speech-recognition-with-handy-silero-vad-whisper/)
- 日期: 2025-10-02T19:17:13+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Handy 项目，探讨 Silero VAD 的噪声鲁棒声活动检测、Whisper 的离线转录集成，以及 cpal 实时低延迟音频优化的工程参数与实现要点。

### [Design of Multi-Hop Agent Pipelines Replacing RAG](/posts/2025/10/02/design-of-multi-hop-agent-pipelines-replacing-rag/)
- 日期: 2025-10-02T18:32:26+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Design multi-hop agent pipelines to replace RAG for complex queries, leveraging expanded context windows for direct reasoning over full documents without chunked retrieval overhea…

### [Claude SDK 多代理工具编排：任务分解、并行执行与动态切换工程实践](/posts/2025/10/02/multi-agent-tool-orchestration-in-claude-sdk/)
- 日期: 2025-10-02T18:16:33+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Claude Agent SDK，探讨多代理协调机制，包括任务分解、并行工具调用与冲突解决，提供工程参数和监控要点，实现复杂工作流的高效落地。

### [使用合成数据管道微调 Pix2Tex 处理手写方程](/posts/2025/10/02/fine-tuning-pix2tex-handwritten-equations-synthetic-data/)
- 日期: 2025-10-02T18:02:23+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 介绍构建合成数据管道和增强策略，用于微调 Pix2Tex ViT 模型以支持手写数学方程识别，包含可落地参数和监控要点。

### [布局感知的 LaTeX OCR：多公式块解析与转换](/posts/2025/10/02/layout-aware-latex-ocr-for-multi-equation-blocks/)
- 日期: 2025-10-02T17:46:36+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 集成 ViT OCR 与布局解析器，处理复杂文档多公式块的提取与 LaTeX 转换，提供 beam search 和符号校正工程参数。

### [LLM驱动的音素到视素映射：基于扩散的面部动画工程实现](/posts/2025/10/02/llm-driven-phoneme-to-viseme-mapping-diffusion-facial-animation/)
- 日期: 2025-10-02T17:31:51+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨在AI短视频生成中，使用LLM指导音素到视素映射结合扩散模型实现真实唇同步的技术要点与参数配置。

### [Immich V2 Stable Migration](/posts/2025/10/02/immich-v2-stable-migration/)
- 日期: 2025-10-02T17:17:22+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Immich v2.0.0 稳定版的工程升级，包括自动化数据库模式迁移、ML 模型兼容性检查和 API 版本化，实现无停机自托管照片库过渡。

### [AI_NovelGenerator 中的多代理系统：情节弧管理与角色一致性](/posts/2025/10/02/ai-novel-generator-agentic-plot-resolution/)
- 日期: 2025-10-02T17:01:52+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 AI_NovelGenerator 如何通过多代理协作管理情节发展、解决伏笔并维持章节间角色一致性，利用专用代理角色和共享内存机制。

### [使用 Immich 实现自托管照片库：ML 驱动的面部聚类、对象搜索与自动标签](/posts/2025/10/02/implementing-immich-for-self-hosted-photo-library-ml-powered-face-clustering-object-search-and-auto-tagging/)
- 日期: 2025-10-02T16:31:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探索 Immich 自托管照片管理解决方案，利用服务器端 ML 功能实现隐私优先的备份，包括面部识别、对象检测和 CLIP 搜索。提供部署参数、监控要点和优化策略。

### [工程化多跳代理编排处理复杂查询](/posts/2025/10/02/engineering-multi-hop-agent-orchestration-for-complex-queries/)
- 日期: 2025-10-02T16:01:59+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 本文探讨多跳代理编排的工程实践，用于分解复杂查询、跨子任务聚合证据并合成响应，提供无静态检索索引的动态系统参数与监控要点。

### [类人机器人RL灵巧性sim2real工程：接触丰富模拟与课程学习](/posts/2025/10/02/engineering-sim2real-for-rl-dexterity-in-humanoids-contact-rich-simulation-and-curriculum-learning/)
- 日期: 2025-10-02T15:48:04+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向类人机器人操纵任务，工程化sim2real转移，使用接触丰富动态模拟和课程学习，提升RL策略的现实部署效果。

### [OpenTSLM 多变量融合集成在供应链需求预测中的应用：交叉验证与错误传播处理](/posts/2025/10/02/opentslm-multi-variate-fusion-ensemble-supply-chain-demand-forecasting/)
- 日期: 2025-10-02T14:32:19+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 OpenTSLM 的多模态能力，融合多源异构时间序列进行实时供应链需求预测，涵盖集成权重、交叉验证及错误传播管理，提供实用参数和最佳实践。

### [工程化 Vision Transformer 用于精确方程图像到 LaTeX 转换：符号识别与束搜索解码](/posts/2025/10/02/engineering-vit-symbol-recognition-for-latex-ocr/)
- 日期: 2025-10-02T14:07:28+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 pix2tex 的 ViT 工程实践，详述符号识别机制、beam search 解码及符号级错误修正的参数配置与优化要点。

### [从 Cursor、Devin、Copilot 和 v0 提取系统提示并适应多轮 AI 编码代理](/posts/2025/10/02/extracting-and-adapting-system-prompts-from-cursor-devin-copilot-and-v0-for-multi-turn-ai-coding-agents/)
- 日期: 2025-10-02T14:03:20+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 提取 Cursor、Devin、Copilot 和 v0 的原始系统提示，分析关键设计元素，并提供适应自定义多轮编码代理的策略，包括工具调用集成、上下文链管理和幻觉防护机制。

### [openpilot 神经模型的安全 OTA 更新实现：差分补丁、验证与回滚策略](/posts/2025/10/02/implementing-secure-ota-updates-for-openpilot-neural-models/)
- 日期: 2025-10-02T13:47:43+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对 openpilot 的神经模型 OTA 更新，介绍安全部署管道，包括差分补丁生成、完整性验证和故障回滚机制，确保嵌入式汽车系统的连续优化。

### [工程化 OpenTSLM 用于分层预测的多分辨率令牌化](/posts/2025/10/02/engineering-opentslm-for-hierarchical-forecasting-with-multi-resolution-tokenization/)
- 日期: 2025-10-02T13:17:29+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向供应链系统中的产品层次，探讨如何利用 OpenTSLM 的多分辨率令牌化实现自适应粒度的相关预测，提供工程参数和落地清单。

### [企业级 GitHub Copilot 的模块化提示配置与 VS Code 扩展工程](/posts/2025/10/02/engineering-modular-prompt-configurations-for-github-copilot-in-enterprise-with-vscode-extensions/)
- 日期: 2025-10-02T12:16:52+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨如何利用 awesome-copilot 仓库的社区配置，工程化模块化提示和 VS Code 扩展，实现企业代码生成工作流的标准化，并集成自定义 guardrails 以提升安全性和一致性。

### [MoneyPrinterTurbo 并行多模型推理管道：低延迟脚本到视频合成的工程实践](/posts/2025/10/02/parallel-multi-model-inference-pipelines-in-moneyprinterturbo/)
- 日期: 2025-10-02T12:07:16+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 MoneyPrinterTurbo 中工程化分布式 LLM 推理管道，通过负载均衡和异步编排实现 2 倍生成吞吐加速，聚焦低延迟视频合成参数与监控策略。

### [Claude SDK 中工程化工具使用链：多步代理推理与动态函数选择](/posts/2025/10/02/engineering-tool-use-chains-in-claude-sdk/)
- 日期: 2025-10-02T10:16:52+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Claude Agent SDK 在构建多步代理时的工具调用链工程，包括动态选择、错误恢复和状态执行的最佳实践。

### [MoneyPrinterTurbo 中 LLM 提示优化与低延迟视频渲染集成](/posts/2025/10/02/optimizing-llm-prompts-for-script-generation-and-low-latency-video-rendering-in-moneyprinterturbo/)
- 日期: 2025-10-02T10:08:33+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 MoneyPrinterTurbo 的 LLM 提示工程优化策略与 FFmpeg 驱动的低延迟视频渲染技术，实现高效短视频生成管道的端到端延迟最小化。

### [Engineering Quantization and KV Cache Pruning for OpenTSLM on Edge Devices](/posts/2025/10/02/engineering-quantization-and-kv-cache-pruning-for-opentslm-on-edge-devices/)
- 日期: 2025-10-02T09:32:54+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过量化与 KV 缓存剪枝优化 OpenTSLM，实现 <1GB RAM 边缘设备的实时时间序列预测，提供参数配置与监控要点。
