在现代联系中心中,出站呼叫是开展营销活动、客户跟进和债务催收等自动化任务的核心。传统的出站呼叫依赖人工代理,效率低下且成本高昂,而引入 AI 代理可以显著提升可扩展性。通过结合语音合成(TTS)、动态路由和电话集成,AI 系统能够处理高容量呼叫,同时保持自然的对话体验。本文聚焦于使用 Microsoft Call Center AI 项目构建这样的管道,强调出站编排的工程实践,帮助开发者实现从 API 触发到实时交互的全流程自动化。
出站呼叫管道的核心在于无缝整合多个 Azure 服务和 OpenAI 模型,形成一个响应式架构。Microsoft Call Center AI 项目提供了一个概念验证框架,支持通过简单 API 调用发起出站呼叫。该系统使用 Azure Communication Services 作为电话网关,处理呼叫建立、音频流传输和 SMS 补充。语音合成依赖 Azure Cognitive Services 的 TTS 引擎,支持多语言和自定义神经语音,确保机器人声音自然且品牌一致。动态路由通过 LLM(如 GPT-4o-mini)驱动,根据对话上下文决定下一步行动,例如转移到人类代理或生成待办事项列表。证据显示,这种集成在 demo 中成功处理了保险理赔场景,机器人能实时收集数据如事件描述、位置和参与方信息,并存储到 Cosmos DB 中,避免了传统系统的延迟和错误。
要构建可扩展管道,首先需配置基础设施。使用 Bicep 或 Makefile 部署 Azure 资源组,包括 Communication Services、Cognitive Services 和 OpenAI 端点。关键参数包括:电话号码获取(支持入站/出站,启用语音和 SMS);LLM 模型选择(推荐 gpt-4o-mini 以平衡成本和性能,输入令牌上限 8k 用于历史上下文);RAG 集成,使用 Azure AI Search 索引内部文档,确保安全数据检索。出站呼叫通过 POST /call API 触发,JSON 负载示例:{"bot_company": "Contoso", "bot_name": "Amélie", "phone_number": "+11234567890", "task": "帮助客户处理数字工作场所问题,收集硬件信息、首次发现时间和建筑位置", "agent_phone_number": "+33612345678", "claim": [{"name": "hardware_info", "type": "text"}, {"name": "first_seen", "type": "datetime"}, {"name": "building_location", "type": "text"}]}。此 schema 验证数据格式(如 E164 电话或 ISO 日期),防止无效输入。部署后,系统支持容器化应用在 Azure Container Apps 上运行,弹性扩展到 2+ 副本,处理峰值负载。
动态路由是管道的智能核心,通过工具调用实现。LLM 分析用户响应,触发动作如生成提醒(e.g., "due_date_time": "2024-12-11T14:30:00")或关闭案例。参数配置包括 VAD(语音活动检测)阈值 0.5、沉默超时 500ms 和截止超时 250ms,确保实时检测用户发言。回退机制:如果 LLM 延迟超过 15s(answer_hard_timeout_sec),发送错误消息;4s 内(answer_soft_timeout_sec)发送等待提示。人类代理转移使用 Communication Services 的转接 API,当置信度低或复杂查询时激活。监控要点:集成 Application Insights 追踪 LLM 延迟(目标 <2s)、令牌使用(输入 ~3750/消息,输出 ~400)和 AEC(回声消除)掉帧率(<1%)。自定义指标如 call.answer.latency 帮助优化瓶颈,例如使用 PTU(预热令牌单元)减少推理时间。
为高容量活动落地,提供以下清单:
-
规模化参数:
- 队列:使用 Azure Storage Queues 处理事件,吞吐量目标 1000 呼叫/小时。
- 缓存:Redis TTL 60s 存储会话状态,减少 DB 查询。
- 并发:Container Apps 自动缩放,vCPU 1/副本,内存 2GB,峰值 10 副本。
-
成本优化:
- TTS:标准层 $15/百万字符,估算 300 令牌/响应 × 1.3 字符/令牌。
- STT:实时 $1/小时,每 15s 交互 × 1000 呼叫 × 10min = $83/月。
- 总计:1000 呼叫 × 10min ≈ $720/月,启用采样降低日志成本。
-
风险缓解:
- 合规:使用 Content Safety 过滤有害内容,阈值 0-7(推荐 4)。
- 恢复:支持断线续传,存储会话到 Cosmos DB,多区域写 RU/s 1000。
- 测试:模拟 500 呼叫负载,测量分辨率率 >90%。
-
扩展实践:
- 多模型:fast LLM (gpt-4o-mini) 用于聊天,slow (gpt-4o) 用于洞察。
- 自定义语音:部署 Custom Neural Voice,端点 ID 配置在 lang 部分。
- A/B 测试:App Configuration 实验不同提示,刷新间隔 60s。
这种管道不仅自动化了出站活动,还提升了客户满意度,通过合成总结(satisfaction: "high")和改进建议(如稳定连接)迭代系统。相比入站 VAD 焦点,出站编排强调 API 驱动的后端和高量分发,避免事件重叠。
资料来源:Microsoft Call Center AI GitHub 项目(https://github.com/microsoft/call-center-ai),Azure 官方文档。