使用多代理工作流开发 AI 驱动的 Web 自动化 Chrome 扩展
基于多代理系统和本地 LLM API,开发隐私保护的 Chrome 扩展,实现无云依赖的 web 自动化任务执行。
Page 667
共 16860 篇文章,分类 267 个。
近期的思考与工程笔记。
基于多代理系统和本地 LLM API,开发隐私保护的 Chrome 扩展,实现无云依赖的 web 自动化任务执行。
探索如何在 Ollama 中部署轻量级代码模型 CodeGemma 和 DeepSeek Coder,实现本地代码生成和自动补全管道,提升开发效率并确保数据隐私。
面向税务计算任务,探讨前沿 LLM 的评估管道设计,包括少样本提示策略、错误分类方法以及针对财政准确性的指标设计。
基于 Minimind 项目,介绍从数据分词到 LoRA 微调的 PyTorch 管道,实现快速训练小规模 GPT 模型的工程实践。
本文分析 NVIDIA Linux GPU 内核驱动中通过栈溢出引发的 Use-After-Free 漏洞的利用机制,并提供使用 eBPF 钩子进行监控和缓解的实用参数与策略。
基于 Rust 的 Zed 编辑器 Windows 端口实践,聚焦 GPUI 框架的 DirectX 适配、实时协作与高性能渲染参数。
面向 IRS 税务事实,介绍联邦 RDF 图构建与 SPARQL 端点的工程化实现,支持合规工具的高效查询与集成。
面向生产部署前的响应式 Python 笔记本验证,给出 marimo check 在 CI/CD 中的集成参数、阈值设置与监控策略。
探讨在 Rust 垃圾回收系统中实现 finalizers 的前沿方法,确保在并发、非确定性环境中安全清理资源,而无需根屏障。提供工程参数和最佳实践。
在资源受限环境中实现实时 AI 响应:Claude 3.5 Haiku 的 tokenization 优化与缓存工程实践。
Node.js 环境下,LangChain.js 的 RAG 与工具调用实现,助力可扩展 AI 代理开发,包括链式组合、检索策略与 agent 工作流。
通过 Pyrefly 的自动化类型推断和少量针对性注解,将 NumPy 的类型覆盖率提升至 90%,显著增强 ML 数据管道的类型安全,而无需全面重写代码。
基于 nanoGPT,构建 PyTorch 环境,实现高效数据加载、因果自注意力及梯度检查点,用于单 GPU GPT 训练。
面向消费者 GPU,给出从零训练小型 GPT 的 PyTorch 管道,焦点在 tokenizer 优化、数据批处理和混合精度梯度。
本文将实现一个统一的 NitroJS 健康检查端点,并将其部署到 Vercel、Netlify 和 Cloudflare Workers,深入分析不同平台的构建、部署流程与运行时差异。
Klavis AI 的 MCP 平台如何通过容器化、状态分区和水平扩展等架构模式,为大规模 AI Agent 提供可靠、隔离的工具调用能力。本文深入分析其并发处理、状态管理和资源隔离的关键机制。