Hotdry.
所有分类

ai-systems

机器智能

Airweave 中动态 API Schema 推理的实现

在 Airweave 框架中,通过动态 API schema 推理从未知端点提取结构,实现适应性代理查询的工程化方案与参数配置。

阅读全文 →

使用 Parlant 实现低延迟控制代理编排

Parlant 框架通过模块化 LLM 代理和高效部署管道,支持工业控制中的亚秒级延迟响应和容错切换。聚焦实时决策与工具集成,提供工程参数和监控要点,确保可靠运行。

阅读全文 →

Parlant 中模块化代理部署管道工程

针对 LLM 代理的 Parlant 框架,构建容器化与 Kubernetes 编排的部署管道,实现几分钟内生产级快速扩展与控制。

阅读全文 →

无遗憾 LoRA 适配器运行时切换:生产部署指南

本文探讨在生产环境中部署无遗憾 LoRA 适配器,用于多任务 LLM 推理。通过正交投影实现低开销适配器切换,无需重新训练。提供工程参数、监控要点和落地清单。

阅读全文 →

Tunix JAX-Flax Integration for LLM Post-Training

在 Tunix 中集成 Flax 模型与自定义 JAX 原语,实现可扩展的 LLM 后训练,支持高级损失函数和 TPU 上的分布式优化器,提供工程参数和监控要点。

阅读全文 →

从零实现最小 Transformer LLM

使用 PyTorch 从头构建小型 Transformer 语言模型,包括自定义 BPE 分词器、GPT-2 式架构,并在莎士比亚数据集上训练的核心组件。

阅读全文 →
55 / 66 页 · 共 5280