<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LiteLLM - 标签 - 探索云原生</title><link>https://www.lixueduan.com/tags/litellm/</link><description>探索云原生（微信公众号：探索云原生）,「江湖人称指月小筑」是意琦行的技术博客。一个云原生打工人的探索之路，专注 Kubernetes、云原生、AI Infra、Go，坚持分享最佳实践、经验干货。</description><generator>Hugo 0.149.0 &amp; FixIt v0.4.0-alpha-20250831070510-5a66a050</generator><language>zh-CN</language><managingEditor>xueduan.li@gmail.com (意琦行)</managingEditor><webMaster>xueduan.li@gmail.com (意琦行)</webMaster><lastBuildDate>Tue, 07 Apr 2026 20:00:00 +0000</lastBuildDate><atom:link href="https://www.lixueduan.com/tags/litellm/index.xml" rel="self" type="application/rss+xml"/><item><title>LiteLLM：打造统一 AI 网关</title><link>https://www.lixueduan.com/posts/ai/17-litellm-ai-gateway/</link><pubDate>Tue, 07 Apr 2026 20:00:00 +0000</pubDate><author>xueduan.li@gmail.com (意琦行)</author><guid>https://www.lixueduan.com/posts/ai/17-litellm-ai-gateway/</guid><category domain="https://www.lixueduan.com/categories/ai/">AI</category><description>&lt;p&gt;&lt;img loading="lazy" src='https://img.lixueduan.com/ai/cover/litellm-ai-gateway.png' alt="litellm-ai-gateway.png"&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;为什么需要 LiteLLM？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;当你在使用多个 AI 模型时，会遇到这些问题：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;每个 Provider 的 API 格式不同，需要维护多套代码&lt;/li&gt;
&lt;li&gt;无法统一监控所有模型的调用情况和成本&lt;/li&gt;
&lt;li&gt;切换模型需要修改业务代码&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;LiteLLM 通过统一的 OpenAI 兼容接口解决了这些问题，让你只需修改 &lt;code&gt;model&lt;/code&gt; 参数就能切换模型。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;核心功能：&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;统一接口&lt;/strong&gt;：一套 API 调用 OpenAI、Azure、Anthropic、Google 等多家模型&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;成本追踪&lt;/strong&gt;：实时监控各模型的使用量和成本&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;负载均衡&lt;/strong&gt;：自动在多个模型间分配请求&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;速率限制&lt;/strong&gt;：防止 API 滥用和成本失控&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;LiteLLM 作为统一网关，接收所有客户端请求，然后根据 &lt;code&gt;model&lt;/code&gt; 参数自动路由到对应的后端模型服务。无论是本地部署的 vLLM，还是云端 API（OpenAI、Claude 等），都可以通过同一套接口调用。&lt;/p&gt;
&lt;p&gt;本文将介绍如何在 Kubernetes 环境中部署 LiteLLM，并配置 PostgreSQL 作为数据库。&lt;/p&gt;</description></item></channel></rss>