首页
AI 平台
AI 推理服务
AI Infra
AI 应用实践
AI RCA
平台工程
Kubernetes
云原生
容器平台
交付平台
微服务治理
网关与流量治理
服务网格
可观测性
链路追踪
日志收集
指标监控
运维与Linux
运维
Linux
大数据
散宜生的个人博客
累计撰写
238
篇文章
累计创建
148
个标签
累计收到
0
条评论
栏目
首页
AI 平台
AI 推理服务
AI Infra
AI 应用实践
AI RCA
平台工程
Kubernetes
云原生
容器平台
交付平台
微服务治理
网关与流量治理
服务网格
可观测性
链路追踪
日志收集
指标监控
运维与Linux
运维
Linux
大数据
目 录
CONTENT
最新文章
2026-02-08
从可观测到 AI RCA:一次值班辅助决策闭环的落地复盘
如果说可观测平台解决的是“数据看得见”,那么 AI RCA 解决的就是“值班时怎么更快把这些数据变成第一轮可用判断”。
2026-02-08
4
0
0
AI RCA
2026-02-07
从 Jenkins 到 GitOps:微服务交付体系的一次渐进式演进复盘
这次演进的重点,不是用某个新工具替换 Jenkins,而是让交付体系开始拥有更清晰的声明边界、状态边界和审计边界。
2026-02-07
3
0
0
交付平台
2026-02-07
指标、日志、链路三层可观测:一次可关联排障能力建设复盘
这篇文章复盘一次三层可观测平台建设实践。真正搭起来的不是三套彼此独立的工具,而是一条可关联的定位链路:指标负责发现异常,链路负责还原请求路径,日志负责补足实例证据,而 trace id / span id 则把日志与链路真正串了起来。
2026-02-07
9
0
0
可观测性
链路追踪
日志收集
指标监控
2026-02-07
APISIX 与微服务入口治理:从流量接入到蓝绿灰度发布边界
这篇文章复盘一次 APISIX 微服务入口治理实践。真正升级的不是入口代理组件,而是外部流量进入微服务平台的方式:从传统 Nginx upstream 转发,演进到具备规则化识别、环境指向切换、蓝绿灰度分面和职责分层的入口治理模型。
2026-02-07
2
0
0
网关与流量治理
2026-02-06
ACK 微服务容器平台建设:从固定部署到可治理运行时承载能力的演进
这篇文章复盘一次 ACK 微服务容器平台建设实践。真正升级的不是部署介质,而是微服务的运行时承载模型:从 ECS 上固定目录、固定端口、固定启动命令的进程式部署,演进到具备滚动发布、健康检查、弹性扩缩、资源隔离、回滚与可观测接入能力的平台化运行方式。
2026-02-06
3
0
0
容器平台
2026-02-05
从 Git 托管 YAML 到 Nacos:一次面向运维实践与架构演进的微服务治理改造复盘
这次改造表面上看,是把配置从 Git 中的 YAML 文件迁移到了 Nacos,并把 Dubbo 注册中心从 Zookeeper 统一到了 Nacos;但更深一层,它其实是一次微服务运行时治理方式的升级。
2026-02-05
5
0
0
微服务治理
2025-10-12
vLLM 和 SGLang 到底怎么选
当一套大模型私有化部署路线已经从环境准备、K8S 底座、vLLM 实战和 SGLang 实战全部走通之后,真正绕不开的问题就只剩下一个:vLLM 和 SGLang 到底该怎么选。本文不再重复安装步骤,而是从目标、场景、团队阶段、复杂度和运维成本五个角度,把这两个框架的差异和选型逻辑讲清楚。
2025-10-12
7
0
0
AI 推理服务
2025-10-07
SGLang 上 K8S:接入 Open WebUI、服务发布与 GPU 运维
当 SGLang 已经能在单机上通过本地或 Docker 方式稳定提供推理接口后,下一步自然就是把它放进 K8S,接上 Open WebUI,变成团队可共享、可访问、可观测的内部 AI 服务。本文按实战顺序完成这条链路:准备模型存储、部署 SGLang 工作负载、接入 Open WebUI、通过 NodePort 和 Gateway 发布服务,并补上 GPU 与 SGLang 指标监控和告警。
2025-10-07
4
0
0
AI 推理服务
2025-10-05
SGLang 私有化部署实战:本地部署、Docker 部署、能力体验
当 vLLM 已经帮你把“正式推理 API”这条路跑通之后,下一步如果你开始关注多步骤推理、工具调用和复杂任务编排,就很自然会走到 SGLang。本文按实战顺序拆开 SGLang 的两条常见起步路径:本地部署和 Docker 部署,并通过模型列表、聊天接口和 Open WebUI 接入来验证它不只是能启动,而是真的能承接复杂 AI 应用。
2025-10-05
1
0
0
AI 推理服务
2025-10-01
vLLM 上 K8S:服务部署、对外暴露、监控与验证
当 vLLM 已经能在单机上通过本地或 Docker 方式稳定提供 API 后,下一步自然就是把它放进 K8S,变成团队可以共享、扩展和观测的正式推理服务。本文按实战顺序完成这条链路:部署 NVIDIA Device Plugin、准备模型存储、发布 vLLM 工作负载、通过 Service 和 Gateway 对外暴露,并补上 GPU 与服务层监控。
2025-10-01
2
0
0
AI 推理服务
1
2
3
4
5
...
24