TensorZero 是一个开源的 LLM(大语言模型)应用全链路优化平台,聚焦于“数据—评估—优化—实验”自动化闭环,极大提升 LLM 产品的可观测性、可优化性和可扩展性。无论你是 GPT 应用开发者,还是需要管理和提升 LLM 服务质量的团队,TensorZero 都能帮你更快、更稳地跑通研发和运维全流程。
✨ 主要功能亮点
1. 高性能 LLM Gateway
- Rust 编写,主打超低延迟(P99 < 1ms),支持高并发 QPS 需求。
- 支持主流 LLM 平台:OpenAI、Anthropic、Bedrock、Gemini、vLLM、Qianwen 等。
- 提供统一 API 与多模型路由,极易集成现有业务。
2. 全链路可观测性
- 自动记录每一次 LLM 推理与用户反馈,入库 ClickHouse。
- 支持详细的请求日志、指标趋势、模型版本表现分析。
- 配套 UI 面板,可视化指标、调用明细一览无余。
3. 自动化优化与实验
- 收集数据后支持自动模板优化、路由策略微调、模型选择和 A/B 测试。
- 一键触发监督微调和偏好微调(如 RLAIF),支持多种调优方式。
- GitOps 管理配置和实验流程,便于团队协作和回滚。
4. 评估与对比分析
- 提供静态/动态测试,支持多模型对比和版本回溯。
- 丰富的指标体系(准确率、耗时、token 用量等),助力工程调优。
⏱️ 5分钟快速上手
1. 安装与部署
git clone https://github.com/tensorzero/tensorzero.git
cd tensorzero
docker compose up -d
2. 配置你的 LLM 服务
编辑 tensorzero.toml
,填写你的模型 API key 和调用函数。例如:
[[functions]]
name = "haiku"
prompt_template = "Write a haiku about {{topic}}."
models = ["openai:gpt-4-turbo"]
3. Python/HTTP 端调用
import tensorzero
client = tensorzero.Client("http://localhost:5555")
result = client.run("haiku", topic="spring rain")
print(result.output)
4. 打开 UI 面板,实时监控调用与优化建议!
🛠 技术优势
- 极致性能:Rust 实现,接口延迟 <1ms,10k QPS 级别稳定。
- 功能闭环:可观测、评估、实验、优化一站式解决。
- 易用可扩展:支持自定义 pipeline、丰富插件,自动接入业务数据和反馈。
🎯 应用场景
- 复杂 LLM 应用开发与运维(AI 助理、客服、内容生成、RAG 检索等)
- 自动化 A/B 测试与迭代实验
- 企业自有大模型服务监控与优化
- 多云/多模型高可用架构
🌟 团队与社区
- 核心成员来自 CMU、斯坦福、牛津等,工程经验丰富。
- 社区活跃,官方文档详细,支持 Issue、Discussions 技术答疑。
📄 参考链接
📫 如果你有好的建议或意见,欢迎私信或评论区留言交流~