在分布式系统中,状态任务的协调往往面临故障恢复和可扩展性挑战。Temporal 作为一款开源工作流编排平台,通过其耐久执行(Durable Execution)机制,确保工作流在失败时能自动重试和恢复状态,这使得它特别适合与 AWS ECS(Elastic Container Service)结合使用。ECS 提供容器化部署的弹性扩展能力,而 Terraform 作为基础设施即代码(IaC)工具,能声明式地管理这些资源,实现自动化 provisioning。本文聚焦于使用 Terraform 在 ECS 上部署 Temporal 的核心实践,强调关键参数的落地配置,帮助开发者构建可靠的分布式工作流系统。
Temporal 的核心优势在于其对工作流的持久化管理。它将工作流状态存储在后端数据库中(如 Cassandra 或 MySQL),前端服务(Frontend)处理 API 请求,后端服务(History、Matching、Worker)负责执行和匹配任务。在 ECS 上部署时,需要定义任务定义(Task Definition),包括容器镜像、CPU / 内存分配,以及环境变量配置。例如,Temporal 的官方 Docker 镜像(如 temporalio/auto-setup)可用于快速启动,但生产环境需自定义镜像以集成业务逻辑。
使用 Terraform 部署,首先需配置 AWS 提供者(provider "aws" {region = "us-west-2"}),然后创建 VPC、子网和安全组。安全组需开放 Temporal 的默认端口:7233(gRPC Frontend)、7234(tchannel Frontend)、7235(HTTP API)。接下来,定义 ECS 集群:resource "aws_ecs_cluster" "temporal" { name = "temporal-cluster" }。任务定义中,指定容器:resource "aws_ecs_task_definition" "temporal_frontend" { family = "temporal-frontend" container_definitions = jsonencode ([ { name = "frontend", image = "temporalio/frontend:1.20.0", cpu = 512, memory = 1024, essential = true, portMappings = [ { containerPort = 7233, hostPort = 0 } ], environment = [ { name = "DYNAMIC_CONFIG_FILE_PATH", value = "/etc/temporal/config/dynamicconfig.yaml" } ], logConfiguration = { logDriver = "awslogs", options = { "awslogs-group" = "/ecs/temporal", "awslogs-region" = "us-west-2", "awslogs-stream-prefix" = "ecs" } } } ]) }。类似地,为 History、Matching 和 Worker 服务创建任务定义,确保它们共享相同的持久卷用于日志和配置。
服务配置是扩展的关键。使用 aws_ecs_service 资源部署服务:resource "aws_ecs_service" "temporal_frontend" {name = "temporal-frontend-service" cluster = aws_ecs_cluster.temporal.id task_definition = aws_ecs_task_definition.temporal_frontend.family:latest desired_count = 2 launch_type = "FARGATE" network_configuration { subnets = [aws_subnet.private.id] security_groups = [aws_security_group.ecs.id] assign_public_ip = false } load_balancer { target_group_arn = aws_lb_target_group.temporal.arn container_name = "frontend" container_port = 7233 } }。这里,desired_count 设置为 2 以实现高可用,FARGATE launch_type 避免管理底层 EC2。负载均衡器(ALB)需配置目标组,监听 7233 端口,并启用健康检查路径如 /health。自动缩放策略可基于 CPU 利用率:resource "aws_appautoscaling_target" "temporal_scale" { max_capacity = 10 min_capacity = 2 resource_id = "service/${aws_ecs_cluster.temporal.name}/${aws_ecs_service.temporal_frontend.name}" scalable_dimension = "ecs:service:DesiredCount" service_namespace = "ecs" },结合 scalable_policy 设置阈值,如 CPU > 70% 时扩展。
参数落地方面,Temporal 的动态配置(Dynamic Config)至关重要。通过 environment 变量或挂载卷注入 config.yaml 文件,关键参数包括:Workflow Task Timeout(默认 10s,生产建议 30s 以容忍网络延迟);History Archival(启用 S3 归档,bucket_name 和 prefix 配置);Namespace 默认隔离(每个租户独立 Workflow ID 空间)。对于 ECS,任务的 CPU/Memory 需根据负载调优:Frontend 建议 1 vCPU / 2GB,History 2 vCPU / 4GB 以处理状态持久化。数据库连接池大小设为 20–50,避免连接耗尽。回滚策略:Terraform 应用时使用 -target 针对性更新,避免全量重启;版本控制任务定义 ARN,确保平滑迁移。
监控与故障容错是部署的重点。集成 CloudWatch:为 ECS 服务启用 metrics,如 CPUUtilization、MemoryUtilization,设置告警阈值(CPU > 80% 通知)。Temporal 内置 Metrics 暴露 Prometheus 端点(/metrics),可通过 sidecar 容器(如 Prometheus Exporter)采集,并推送到 CloudWatch。故障场景下,Temporal 的 Saga 模式处理补偿逻辑,例如支付工作流中,失败任务自动回滚库存扣减。限流参数:RateLimit(全局 1000 req/s),防止雪崩。测试时,使用 Temporal CLI(temporal workflow start)模拟负载,验证重试机制。
在实际项目中,此部署模式已证明有效。例如,在电商订单处理系统中,Temporal 协调库存检查、支付和发货任务,即使 ECS 任务重启,状态也不会丢失。相比 Kubernetes,ECS + Terraform 更轻量,适合中小规模团队。潜在风险包括状态数据库的单点故障,建议使用 RDS Multi-AZ;成本控制通过 Spot 实例(但 Temporal 不推荐用于核心服务)。总体而言,通过上述参数和清单,可快速实现 scalable stateful 协调。
资料来源:Temporal 官方文档(https://docs.temporal.io/),AWS ECS 文档(https://docs.aws.amazon.com/ecs/),Terraform AWS Provider 文档(https://registry.terraform.io/providers/hashicorp/aws/latest/docs)。