# 分类：ai-systems

> 该分类下的文章按时间倒序排列，便于按主题继续深挖。

## 页面摘要
- 路径: /categories/ai-systems/page/72/
- 当前页: 72 / 75
- 文章总数: 5960
- 当前页文章数: 80

## 快速导航
- [首页](/)
- [分类索引](/categories/)
- [归档索引](/archive/)

## 本页文章
### [工程化顶级规划代理：分层多代理协调中的任务分解与子代理并行执行](/posts/2025/09/15/engineering-top-level-planning-agent-for-hierarchical-multi-agent-coordination/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨顶级规划代理的设计与实现，用于任务分解和协调专化子代理，实现深度研究与通用任务的并行执行，提供工程参数与落地策略。

### [工程化顶层规划代理：协调专业下层代理在多样复杂领域的自动化任务分解与高效执行](/posts/2025/09/15/engineering-top-level-planning-agent-for-specialized-coordination-in-diverse-domains/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在分层多代理系统中，设计顶层规划代理以协调专业下层代理，实现复杂任务的自动化分解与跨领域执行。提供工程参数、协调机制与落地指南，确保高效性和可扩展性。

### [JavaScript 中的 Genkit 多模型 AI 编排：Flows、RAG 与代理工作流](/posts/2025/09/15/genkit-multi-model-ai-orchestration-in-javascript/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Genkit Flows 在 Node.js 上构建可组合的多 LLM 管道，集成 RAG、向量数据库和代理机制，提供实用参数与部署指南。

### [使用 Haystack 构建生产级 LLM RAG 管道：组件编排与混合检索实践](/posts/2025/09/15/haystack-llm-orchestration-for-rag-pipelines/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 Haystack 框架的模块化组件，连接 LLM 模型、向量数据库和检索器，构建高效 RAG 管道。提供索引与查询管道配置、混合检索参数及代理编排指南，确保生产级部署与监控。

### [用神经场实现单图像镜头模糊建模：隐式表示与体积渲染](/posts/2025/09/15/implementing-lens-blur-fields-for-neural-blur-generation-from-single-images/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Lens Blur Fields 技术，从单张图像实现真实镜头模糊效果。使用 MLP 隐式表示 PSF，结合深度估计和体积渲染，支持后处理管道中的零-shot 去焦模拟。

### [用 OpenCode 实现终端 AI 编码代理](/posts/2025/09/15/implementing-terminal-ai-coding-agent-with-opencode/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 TypeScript 构建终端 AI 代理，支持本地 LLM 调用与文件 I/O，实现离线多步编码工作流，无需 IDE 依赖。

### [将脉冲神经元集成到7B大模型中实现事件驱动稀疏激活](/posts/2025/09/15/integrating-spiking-neurons-into-7b-llms-for-event-driven-sparse-activation/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过生物启发阈值和delta编码，将脉冲神经元融入7B LLM，实现事件驱动稀疏激活，计算量减少50%，适用于高效设备端推理。

### [将脉冲神经元整合到7B规模LLM：事件驱动稀疏激活的能效推理](/posts/2025/09/15/integrating-spiking-neurons-into-7b-scale-llms-for-event-driven-sparse-activation/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向7B规模LLM，探讨脉冲神经元整合实现事件驱动稀疏激活的工程参数与能效优化要点。

### [Lightweight Semantic Parsing with Semlib: Entity Extraction and Relation Graphing](/posts/2025/09/15/lightweight-semantic-parsing-with-semlib-entity-extraction-and-relation-graphing/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Semlib 通过嵌入模型和规则推理从非结构化文本中提取实体并构建关系图，而不依赖重型 LLM。

### [Perplexica 中 TypeScript RAG 管道的优化：低延迟查询路由、混合搜索融合与可扩展向量索引](/posts/2025/09/15/optimize-typescript-rag-pipelines-perplexica-low-latency/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对 Perplexica 的 TypeScript RAG 管道，给出低延迟查询路由、混合搜索融合与可扩展向量索引的优化参数与实现要点。

### [利用 MLX 统一内存、量化和 KV 缓存优化 Apple Silicon 上的 LLM 推理](/posts/2025/09/15/optimizing-llm-inference-apple-silicon-mlx/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向 Apple Silicon 的 LLM 推理优化，给出 MLX-LM 中统一内存、量化与 KV 缓存的工程参数与多模型切换策略。

### [多代理 LLM 编排：从研究论文到可执行代码模块的零-shot 生成](/posts/2025/09/15/orchestrating-multi-agent-llms-for-paper-to-code-generation/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 DeepCode 框架的多代理系统，实现研究论文到生产代码的自动化转换，支持模块化规划、验证与零-shot 应用生成。

### [使用 Genkit Flows 在 JavaScript 中编排多模型 AI 管道：可组合 RAG 与向量数据库集成](/posts/2025/09/15/orchestrating-multi-llm-pipelines-in-javascript-with-genkit-flows-composable-rag-and-vector-db-integration/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 Genkit Flows 实现 JavaScript 多 LLM 管道编排，集成 RAG 与向量 DB，支持插件式模型切换和类型安全工作流。

### [使用 Genkit Flows 编排 JavaScript 多 LLM 管道：可组合 RAG、向量数据库集成与代理工作流](/posts/2025/09/15/orchestrating-multi-llm-pipelines-in-javascript-with-genkit-flows-composable-rag-vector-db-integration-and-agentic-workflows/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Node.js 上利用 Genkit 构建多模型 AI 管道，聚焦 Flows 的可组合性、RAG 集成与代理工作流，提供落地参数与监控策略。

### [使用 Trigger.dev 编排可靠的 AI 应用后台作业：事件驱动触发与耐用执行](/posts/2025/09/15/orchestrating-reliable-ai-app-background-jobs-with-trigger-dev/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Trigger.dev 如何通过事件驱动、多步工作流和自动重试实现 AI 应用的耐用编排，提供配置参数和监控要点。

### [层级多代理系统中并行子代理执行的工程化实践](/posts/2025/09/15/parallel-sub-agent-execution-in-hierarchical-multi-agent-systems/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 DeepResearchAgent 中并行子代理执行的实现机制，包括异步调度、资源协调与结果聚合，提供可落地参数与监控要点。

### [纯Rust从零构建Transformer LLM：高效分词、注意力机制与嵌入式推理](/posts/2025/09/15/pure-rust-transformer-llm-efficient-tokenization-attention-inference/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨在纯Rust中从头构建Transformer LLM，聚焦高效分词、自注意力机制及无外部ML库的推理优化，适用于嵌入式部署。提供关键参数、实现要点与落地指南。

### [纯 Rust 实现 Transformer LLM：自定义分词与高效推理](/posts/2025/09/15/pure-rust-transformer-llm-implementation/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 RustGPT 项目，探讨纯 Rust 中 Transformer 架构的构建，包括自定义分词、多头注意力机制，以及轻量级部署的工程参数与优化策略。

### [将脉冲神经元工程化融入 7B LLM：通过时序编码实现事件驱动稀疏激活](/posts/2025/09/15/spikingbrain-7b-event-driven-sparse-activation/)
- 日期: 2025-09-15T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向 7B LLM，介绍 SpikingBrain 的脉冲神经元集成、事件驱动稀疏激活机制，以及低功耗推理的工程参数与效率基准。

### [用 Crawl4AI 构建异步 Python 爬虫：语义提取与 RAG 数据管道优化](/posts/2025/09/14/build-async-python-crawler-crawl4ai-semantic-rag/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Crawl4AI 实现高效的异步 web 爬取，支持语义提取、去重过滤和 LLM 友好输出，适用于 RAG 数据管道。

### [构建低延迟语音克隆流水线：使用说话者嵌入、Tacotron2 合成与 WaveNet 声码器支持实时交互式语音代理的多说话者适应](/posts/2025/09/14/build-low-latency-voice-cloning-pipeline-tacotron2-wavenet-multi-speaker-adaptation/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向实时交互式语音代理，构建低延迟语音克隆流水线，包括说话者嵌入提取、Tacotron2 文本到谱图合成，以及 WaveNet 声码器的高效波形生成，支持多说话者运行时适应。

### [使用 garak 核心探针构建生产级 LLM 安全审计管道](/posts/2025/09/14/build-production-llm-safety-auditing-pipeline-with-garak-core-probes/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 garak 的内置探针，聚焦幻觉、毒性和提示注入，构建模块化 LLM 安全审计管道，提供生产化配置与监控要点。

### [使用 LLM 构建无服务器生成式电商后端：动态产品合成与支付集成](/posts/2025/09/14/build-serverless-backend-for-ai-generative-ecommerce/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨基于查询的AI产品生成系统，聚焦serverless架构下的图像/文本合成、实时渲染及支付集成，实现无物理库存的电商模式。

### [构建 Perplexica：使用 TypeScript 和 RAG 管道的开源 AI 搜索引擎](/posts/2025/09/14/building-perplexica-open-source-ai-search-engine-with-typescript-and-rag-pipelines/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 TypeScript 构建开源 AI 搜索引擎，集成 RAG 管道、向量嵌入和本地 LLM，实现隐私保护的语义搜索与实时答案合成。

### [Garak 中可扩展插件系统的设计：链式 LLM 漏洞检测器与动态风险评分](/posts/2025/09/14/designing-extensible-plugin-system-in-garak-for-chaining-llm-vulnerability-detectors/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Garak的插件架构支持模块化扩展，实现LLM漏洞检测的链式处理和动态风险评估，提供红队工作流的工程化实现。

### [能量基Transformer：用能量函数替换Softmax实现稳定注意力机制](/posts/2025/09/14/energy-based-transformers-replacing-softmax-with-energy-functions-for-stable-attention/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在Transformer注意力机制中，用能量函数取代Softmax可提升梯度稳定性和长上下文建模效率，提供PyTorch自定义层实现与优化参数。

### [工程化 garak 进行多模型链式漏洞探测与风险分数聚合](/posts/2025/09/14/engineer-garak-for-multi-model-chained-probes-and-risk-score-aggregation/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 garak 框架，设计多 LLM 链式探测脚本，实现风险分数聚合，支持安全基准测试与漏洞优先级排序。

### [工程化 Python 异步 Web 爬虫：为 LLM 优化，支持 JS 渲染、语义分块与 RAG 结构化提取](/posts/2025/09/14/engineer-python-async-web-crawler-for-llms-js-rendering-semantic-chunking-and-structured-extraction-for-rag/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Crawl4AI 实现异步 web 爬虫，聚焦 LLM 友好输出、动态内容捕获与高效 RAG 集成，提供工程参数与低延迟优化。

### [用Python工程语义感知web爬虫：异步抓取、内容提取与LLM优化分块](/posts/2025/09/14/engineer-semantic-web-crawlers-python-async-rag/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 构建高效RAG数据管道的语义web爬虫工程实践，包括异步Python实现、提取策略与分块优化。

### [工程化顶层规划代理：任务分解为并行子代理，实现通用任务求解](/posts/2025/09/14/Engineer-Top-Level-Planning-Agent-Task-Decomposition-Parallel-Sub-Agents-General-Solving/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨顶层规划代理如何将复杂任务分解为并行子代理执行，提供工程参数和配置指南，实现跨领域自动化求解。

### [工程化低延迟神经TTS管道：speaker embeddings、WaveNet声码器与实时推理](/posts/2025/09/14/engineering-low-latency-neural-tts-pipeline-with-speaker-embeddings-wavenet-vocoder-and-real-time-inference-for-interactive-voice-agents/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向交互式语音代理，给出低延迟神经TTS管道的构建参数、优化策略与延迟监控要点。

### [基于MLX的Apple Silicon LLM推理管道工程：利用统一内存实现低延迟设备端生成、模型量化与多模型切换](/posts/2025/09/14/engineering-mlx-based-llm-inference-pipelines-on-apple-silicon-leveraging-unified-memory-for-low-latency-on-device-generation-with-quantization-and-multi-model-switching/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨在Apple Silicon上使用MLX-LM构建LLM推理管道，利用统一内存优化低延迟生成，支持模型量化与多模型切换，提供工程参数与落地清单。

### [工程化顶层规划代理：分层多代理任务分解与并行执行](/posts/2025/09/14/engineering-top-level-planning-agent-for-hierarchical-multi-agent-task-decomposition/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向复杂研究任务，构建顶层规划代理以实现任务分解、并行执行、多跳检索与自适应协调的工程实践。

### [工程化顶级规划代理：分层多代理任务分解实现复杂研究的可扩展执行](/posts/2025/09/14/engineering-top-level-planning-agent-for-hierarchical-multi-agent-task-decomposition-in-deep-research/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于DeepResearchAgent框架，探讨顶级规划代理的任务分解机制，支持并行子任务执行、多跳检索与跨领域适应，提供工程参数与监控要点。

### [使用 LLM 代理构建 AI 驱动的自由职业者发票 TypeScript 后端](/posts/2025/09/14/engineering-typescript-backend-for-ai-driven-freelancer-invoicing-with-llm-agents/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨如何使用 TypeScript 工程化后端，支持 AI 驱动的发票处理、时间跟踪和文件对账，通过 LLM 代理实现自动化费用分类和客户报告生成。

### [使用 Bun 和 LLM 集成工程化 TypeScript 终端 AI 代码生成 CLI](/posts/2025/09/14/engineering-typescript-cli-terminal-ai-code-generation-bun-llm/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Bun 的并行依赖解析与 LLM 集成，构建高效终端 AI 代码生成 CLI，支持离线代码合成管道与多代理协作。

### [使用自定义插件扩展 garak：模块化 LLM 红队测试管道，聚焦探测器链式与风险评分](/posts/2025/09/14/extend-garak-custom-plugins-modular-llm-red-teaming-detector-chaining-risk-scoring/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过自定义插件扩展 garak 工具，实现模块化 LLM 红队测试，重点介绍探测器链式连接、风险评分机制，以及与生产推理管道的集成，用于高效幻觉探测。

### [Flash 线性注意力实现 Transformer 的 O(n) 缩放](/posts/2025/09/14/flash-linear-attention-for-o-n-scaling-in-transformers/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过高效 Triton 内核实现线性注意力，支持长序列 Transformer 的 O(n) 复杂度和子二次方计算，无需注意力掩码，提供工程化集成参数。

### [从零实现Transformer-based LLM：PyTorch训练管道构建与优化](/posts/2025/09/14/from-zero-build-transformer-llm-pytorch-training-pipeline/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于Happy-LLM项目，探讨使用PyTorch从零构建Transformer LLM的训练管道，包括tokenization、注意力机制、fine-tuning及部署优化。

### [使用 Triton 融合线性注意力内核：长序列 Transformer 的亚二次复杂度优化](/posts/2025/09/14/fuse-linear-attention-kernels-with-triton-for-sub-quadratic-complexity-in-long-sequence-transformers/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对长序列 Transformer，利用 Triton 融合内核实现亚二次复杂度，通过重计算和分块策略最小化内存带宽。

### [将 garak 集成到 CI/CD 管道中：自动化 LLM 红队测试与风险评分](/posts/2025/09/14/integrate-garak-into-ci-cd-for-automated-llm-vulnerability-scanning/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 LLM 模型部署流程中集成 garak，实现探针链式执行与自定义检测器，自动化漏洞扫描与连续红队评估。

### [Integrate Multiple LLMs in Genkit Flows for Composable AI Apps](/posts/2025/09/14/integrate-multiple-llms-genkit-flows-composable-ai-apps/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Explore integrating multiple LLMs using Genkit's flow-based orchestration, with JS/Go/Python support, tracing for debugging, and practical model switching strategies.

### [将脉冲神经元集成到7B LLM架构中实现事件驱动稀疏激活](/posts/2025/09/14/integrate-spiking-neurons-7b-llm-event-driven-sparse-activation/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向7B LLM架构，给出脉冲神经元集成的事件驱动稀疏激活参数与能效优化要点。

### [将脉冲神经元集成到 7B LLM 架构中：事件驱动稀疏激活与能效优化](/posts/2025/09/14/integrating-spiking-neurons-into-7b-llm-for-event-driven-sparse-activation/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向 7B LLM，介绍脉冲神经网络集成策略，实现事件驱动稀疏激活，降低推理能耗，提供落地参数与风险控制。

### [使用Transformers构建多模态管道：高效分词、注意力优化与ONNX部署](/posts/2025/09/14/integrating-transformers-multimodal-pipelines-efficient-tokenization-onnx/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用Hugging Face Transformers框架，构建文本-视觉-音频多模态模型管道，聚焦分词效率提升、注意力机制优化，以及ONNX低延迟推理部署，提供工程参数与监控要点。

### [用 Haystack 编排 LLM 应用：连接模型、向量 DB 和转换器构建 RAG 管道](/posts/2025/09/14/orchestrate-llm-apps-with-haystack-rag-pipelines/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Haystack 框架通过模块化管道实现 LLM 应用编排，适用于 RAG、QA 和语义搜索，提供生产级检索和集成参数。

### [Claude 子代理中的并行任务分解：并发代码模块生成与集成测试工程实践](/posts/2025/09/14/parallel-task-decomposition-in-claude-subagents-for-concurrent-code-module-generation/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 利用 Claude 子代理实现代码开发的并行任务分解，聚焦并发模块生成、集成测试和依赖解析，提供工程参数与监控要点。

### [使用 ROMA 递归元代理构建高性能多代理系统](/posts/2025/09/14/roma-recursive-meta-agents/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: ROMA 框架通过递归元代理实现动态任务委托、状态同步和模块化编排，帮助工程师构建可扩展的 AI 工作流。探讨核心组件、配置参数和实际部署策略。

### [使用 Triton 融合线性注意力内核实现亚二次复杂度：长序列 Transformer 的高效 O(n) 缩放](/posts/2025/09/14/triton-fused-linear-attention-kernels-sub-quadratic-complexity-in-long-sequence-transformers/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Flash Linear Attention 项目，探讨 Triton 融合内核如何实现线性注意力的 sub-quadratic 复杂度，支持长序列 Transformer 的 O(n) 高效缩放，提供工程化配置与优化参数。

### [使用 Motia 统一 APIs、作业、工作流和 AI 代理的后端框架](/posts/2025/09/14/unifying-apis-jobs-workflows-and-ai-agents-with-motia/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: Motia 通过单一 Step 原语整合后端组件，提供多语言支持和内置可观察性，实现高效、低延迟的 AI 系统构建。

### [使用 OpenPI 的视觉-语言-动作模型实现零样本策略转移：跨具身机器人操纵](/posts/2025/09/14/zero-shot-policy-transfer-openpi-vla-cross-embodiment/)
- 日期: 2025-09-14T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 OpenPI 框架，利用预训练 VLA 模型实现跨具身零样本策略转移，提供安装、推理配置和工程参数，支持不同机器人平台的无微调操纵任务。

### [Aris 中基于年龄的自适应提示工程](/posts/2025/09/13/age-adaptive-prompt-engineering-in-aris/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 Aris AI 平台中，通过动态提示模板实现年龄自适应响应，简化内容、融入教育元素，并强化安全机制。

### [使用 ROMA 的递归开放元代理构建可扩展多代理 AI 系统：动态任务委托与状态管理](/posts/2025/09/13/build-scalable-multi-agent-ai-systems-with-romas-recursive-open-meta-agents-dynamic-task-delegation-and-state-management/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 ROMA 框架实现递归元代理的多代理系统，支持动态任务分解、状态管理和性能优化，提供 Python 落地参数与监控要点。

### [使用 TypeScript 和 Bun 构建终端 AI 代码生成器，集成 LLM 实现提示即时代码生成与本地执行](/posts/2025/09/13/build-terminal-ai-code-generator-with-typescript-bun-and-llms/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Codebuff 灵感，探讨如何用 TypeScript 和 Bun 快速构建终端 AI 代码生成工具，集成 OpenRouter LLM，支持提示到代码的即时生成与本地执行，提供工程化参数和监控要点。

### [Curating Community MCP Servers for AI Agent Discovery and Integration](/posts/2025/09/13/curate-mcp-servers-ecosystem-discovery-integration/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: A curated guide to community MCP servers enabling standardized discovery, integration patterns, and modular orchestration for AI agents without custom builds.

### [n8n 社区工作流精选：模块化集成模式构建可扩展自动化管道](/posts/2025/09/13/curating-n8n-community-workflows-modular-integration-patterns-for-scalable-automation-pipelines/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 精选开源 n8n 工作流库，介绍动态集成模式与模块化节点链式，实现可扩展、错误恢复的自动化管道工程实践。

### [在 garak 中开发自定义漏洞探测器：针对 LLM 风险的模块化插件与 CI/CD 集成](/posts/2025/09/13/custom-vulnerability-detectors-llm-risk-probing/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 garak 框架开发自定义探测器，聚焦提示注入和 PII 泄露风险，提供模块化插件设计、评估指标及 CI/CD 集成策略，确保 LLM 安全工程化落地。

### [Developing Custom Detectors in Garak for LLM Risk Probing](/posts/2025/09/13/developing-custom-detectors-in-garak-for-llm-risk-probing/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 garak 框架开发自定义探测器，针对提示注入和 PII 泄露等 LLM 风险，提供模块化插件设计、评估指标及 CI/CD 管道集成策略。

### [使用 Geohot 框架工程化自主 AI 代理实现全周期代码生成](/posts/2025/09/13/engineering-autonomous-ai-agents-with-geohot-framework/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Geohot 的开源工具，构建从自然语言需求到代码生成、测试与部署的自主 AI 代理，提供工程化参数与落地清单。

### [Engineering Community-Driven MCP Registry with Go: Dynamic Discovery and Health Monitoring](/posts/2025/09/13/engineering-community-driven-mcp-registry-with-go-dynamic-discovery-and-health-monitoring/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Go 的社区驱动 MCP 注册服务，实现动态发现、健康监控及多代理 AI 工作流的无缝集成。

### [Claude 子代理中的分层任务编排工程化：动态委托与状态同步](/posts/2025/09/13/engineering-hierarchical-task-orchestration-in-claude-subagents/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨Claude Code子代理的分层任务编排，聚焦动态任务委托、状态同步及错误恢复机制，提供工程化参数与监控要点。

### [Engineering Modular Deep Research Agent with MCP Protocol: Multi-Hop Retrieval and Adaptive Query](/posts/2025/09/13/engineering-modular-deep-research-agent-with-mcp-protocol-multi-hop-retrieval-and-adaptive-query/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 MCP 协议构建模块化深度研究代理，实现多跳知识检索、工具编排与自适应查询精炼，提供工程参数与监控要点。

### [工程化模块化 MCP 代理用于多跳知识检索与可验证研究管道](/posts/2025/09/13/engineering-modular-mcp-agents-multi-hop-knowledge-retrieval/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 MCP 协议构建模块化 AI 代理，实现多跳知识检索、信息合成及工具编排下的错误恢复机制。

### [Engineering Multi-User AI Research Platforms with Grove: Shared Access and Collaboration Workflows](/posts/2025/09/13/engineering-multi-user-ai-research-platforms-with-grove-shared-access-and-collaboration-workflows/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 OpenAI Grove，利用 API 构建多用户 AI 研究平台，实现共享模型访问、版本化实验与实时协作的工程实践。

### [使用 VaultGemma 的 DP-SGD 优化器工程化隐私保护 LLM 微调](/posts/2025/09/13/engineering-privacy-preserving-llm-fine-tuning-vaultgemma-dp-sgd/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 VaultGemma 在差分隐私 LLM 微调中的 DP-SGD 优化器、噪声校准与安全聚合机制，提供联邦设置下合规推理的工程参数与实践指南。

### [Qwen3 在 ARM 硬件上的 MLX 加速部署：低延迟设备端推理与多模型切换](/posts/2025/09/13/engineering-qwen3-llm-deployment-on-arm-with-mlx-for-low-latency-on-device-inference-and-multi-model-switching/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 针对 ARM 架构的 Qwen3 LLM 部署工程实践，聚焦 MLX 框架加速，实现低延迟设备端推理及多模型无缝切换的关键参数与优化策略。

### [Aris 中工程化儿童安全自适应 AI 响应](/posts/2025/09/13/engineering-safe-ai-responses-in-aris-for-children/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨 Aris 中内容过滤、年龄适宜响应生成及自适应学习路径的工程实践，确保儿童教育 AI 交互安全。

### [Qwen3-Next 中通过稀疏 MoE 层实现亚秒级多模态生成：混合精度运算与内核融合工程实践](/posts/2025/09/13/engineering-sub-second-multimodal-generation-in-qwen3-next-via-sparse-moe-layers/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Qwen3-Next 的稀疏 MoE 架构，探讨多模态推理中的高效工程实现，包括混合精度运算、内核融合策略，以及亚秒级生成的落地参数与监控要点。

### [工程化 TypeScript CLI：终端 AI 代码生成与 Bun 加速依赖管理](/posts/2025/09/13/engineering-typescript-cli-for-terminal-ai-code-generation-with-bun-parallel-deps/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Codebuff 项目，剖析 TypeScript CLI 在终端 AI 代码生成中的工程实现，强调 Bun 的并行依赖解析与锁文件缓存机制，实现快速安装与高效原型开发。

### [Windows GUI AI 代理工程：像素识别与事件模拟实现桌面任务自动化](/posts/2025/09/13/engineering-windows-gui-ai-agents-pixel-recognition-event-simulation-desktop-automation/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过像素级识别和低级输入模拟，构建无API依赖的Windows桌面AI代理，实现任务自动化，提供工程参数与监控要点。

### [Garak 插件架构扩展：模块化 LLM 红队测试与自动化探测工作流](/posts/2025/09/13/extending-garak-with-plugins-for-modular-llm-red-teaming/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 Garak 的插件系统，实现自定义探测器链、自动化红队工作流和集成报告，提升 LLM 漏洞评估的模块化和效率。

### [使用 FlashAttention 内核实现最先进的线性注意力：长序列 Transformer 的 O(n) 缩放](/posts/2025/09/13/implement-flash-linear-attention-for-o-n-scaling-in-long-sequence-transformers/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向长序列 Transformer，给出 Flash Linear Attention 的高效实现、训练参数和推理优化要点，支持超过 1M tokens 的序列处理。

### [使用 Milvus 云原生分片实现亿级向量数据库的可扩展 ANN 搜索](/posts/2025/09/13/implement-scalable-ann-search-milvus-cloud-native-sharding/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 面向亿级向量数据库，给出 Milvus 云原生分片、混合 HNSW/IVF 索引、实时数据摄入以及容错复制的工程化参数与监控要点。

### [K2-Think 中基于适配器的 PEFT 模块实现：高效 LLM 推理](/posts/2025/09/13/implementing-adapter-based-peft-modules-in-k2-think-for-efficient-llm-reasoning/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 在 K2-Think 框架中集成适配器-based PEFT 模块，通过低秩适配和任务特定路由优化 LLM 推理，提供工程参数和监控要点。

### [使用 FlashAttention 内核实现高效线性注意力模型](/posts/2025/09/13/implementing-efficient-linear-attention-with-flashattention-kernels/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Flash Linear Attention 库，探讨优化内核在 Transformer 长序列处理中的应用，提供安装与配置指南。

### [使用 FlashAttention 内核实现高效线性注意力：O(n) 长序列 Transformer 训练与推理优化](/posts/2025/09/13/implementing-efficient-linear-attention-with-flashattention-kernels-for-on-long-sequence-transformers/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于 Flash Linear Attention 库，探讨如何在 GPU 上实现 O(n) 复杂度线性注意力机制，支持多种 SOTA 模型的快速训练和推理。

### [使用Flash Linear Attention的高效内核实现线性注意力模型](/posts/2025/09/13/implementing-linear-attention-models-with-flash-linear-attention-efficient-kernels/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 基于Triton优化的Flash Linear Attention内核，帮助Transformer处理长序列，降低内存开销，提供安装与调优指南。

### [在Aris中实现安全的自适应响应生成：儿童教育的安全AI助手](/posts/2025/09/13/implementing-safe-adaptive-responses-in-aris-for-child-education/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 探讨如何在Aris AI中使用过滤LLM、互动测验和家长控制来生成安全、适应性的响应，确保儿童教育无害且引人入胜。

### [Claude 子代理的任务分解与并发执行：并行化复杂代码开发工作流](/posts/2025/09/13/implementing-task-decomposition-and-concurrent-execution-in-claude-subagents-for-parallel-code-development/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 使用Claude子代理实现任务分解和并发执行，以优化复杂代码开发工作流的管理与共享状态。

### [Chatbox 中集成本地 LLM：离线推理与多模型无缝切换](/posts/2025/09/13/integrating-local-llms-chatbox-offline-multi-model/)
- 日期: 2025-09-13T20:46:50+08:00
- 分类: [ai-systems](/categories/ai-systems/)
- 摘要: 通过 Chatbox 集成 Ollama 等本地 LLM，实现跨平台离线 AI 聊天，支持多模型切换与 UI 优化。
