首页
可观测性
链路追踪
日志收集
指标监控
云原生
服务网格
关于
散宜生的个人博客
累计撰写
238
篇文章
累计创建
245
个标签
累计收到
0
条评论
栏目
首页
可观测性
链路追踪
日志收集
指标监控
云原生
服务网格
关于
目 录
CONTENT
以下是
AI 推理服务
相关的文章
2025-10-12
vLLM 和 SGLang 到底怎么选
当一套大模型私有化部署路线已经从环境准备、K8S 底座、vLLM 实战和 SGLang 实战全部走通之后,真正绕不开的问题就只剩下一个:vLLM 和 SGLang 到底该怎么选。本文不再重复安装步骤,而是从目标、场景、团队阶段、复杂度和运维成本五个角度,把这两个框架的差异和选型逻辑讲清楚。
2025-10-12
1
0
0
AI 推理服务
2025-10-07
SGLang 上 K8S:接入 Open WebUI、服务发布与 GPU 运维
当 SGLang 已经能在单机上通过本地或 Docker 方式稳定提供推理接口后,下一步自然就是把它放进 K8S,接上 Open WebUI,变成团队可共享、可访问、可观测的内部 AI 服务。本文按实战顺序完成这条链路:准备模型存储、部署 SGLang 工作负载、接入 Open WebUI、通过 NodePort 和 Gateway 发布服务,并补上 GPU 与 SGLang 指标监控和告警。
2025-10-07
4
0
0
AI 推理服务
2025-10-05
SGLang 私有化部署实战:本地部署、Docker 部署、能力体验
当 vLLM 已经帮你把“正式推理 API”这条路跑通之后,下一步如果你开始关注多步骤推理、工具调用和复杂任务编排,就很自然会走到 SGLang。本文按实战顺序拆开 SGLang 的两条常见起步路径:本地部署和 Docker 部署,并通过模型列表、聊天接口和 Open WebUI 接入来验证它不只是能启动,而是真的能承接复杂 AI 应用。
2025-10-05
1
0
0
AI 推理服务
2025-10-01
vLLM 上 K8S:服务部署、对外暴露、监控与验证
当 vLLM 已经能在单机上通过本地或 Docker 方式稳定提供 API 后,下一步自然就是把它放进 K8S,变成团队可以共享、扩展和观测的正式推理服务。本文按实战顺序完成这条链路:部署 NVIDIA Device Plugin、准备模型存储、发布 vLLM 工作负载、通过 Service 和 Gateway 对外暴露,并补上 GPU 与服务层监控。
2025-10-01
2
0
0
AI 推理服务
2025-09-28
vLLM 私有化部署实战:本地部署、Docker 部署、接口验证
当你已经用 Ollama 跑通过一条可交互体验链路之后,下一步通常就该进入更正式的推理服务路线。对很多团队来说,vLLM 正是这一步的自然选择。本文把 vLLM 的两条典型起步路径拆开讲清楚:本地 Python/Conda 部署和 Docker 容器部署,并在关键步骤补充命令、输出和 OpenAI 兼容接口验证方法。
2025-09-28
1
0
0
AI 推理服务