第三届 HAMi Meetup 深圳站回顾

4 月 25 日,HAMi 社区在深圳成功举办第三场线下 Meetup。来自 CNCF、顺丰科技、招商银行、燧原科技、深信服、博维智慧科技及密瓜智能的七位技术专家,围绕 AI 基础设施云原生演进、GPU 算力池化、异构调度、DRA 技术展望等前沿话题,为现场观众带来了一场深度技术盛宴。
本次活动由 HAMi 社区发起,由密瓜智能主办,顺丰科技协办并提供场地支持。

4 月 25 日,HAMi 社区在深圳成功举办第三场线下 Meetup。来自 CNCF、顺丰科技、招商银行、燧原科技、深信服、博维智慧科技及密瓜智能的七位技术专家,围绕 AI 基础设施云原生演进、GPU 算力池化、异构调度、DRA 技术展望等前沿话题,为现场观众带来了一场深度技术盛宴。
本次活动由 HAMi 社区发起,由密瓜智能主办,顺丰科技协办并提供场地支持。
在 Kubernetes 中管理 GPU 资源,长期以来存在一个"盲区"。你知道 GPU 在被使用,但要回答"哪个节点还有空闲?"、"这个工作负载是否真的在用分配到的 GPU?"、"集群整体 GPU 利用率趋势如何?"这些问题,往往需要在 kubectl get、Prometheus PromQL 和日志输出之间反复切换。
今天,HAMi 社区正式推出 HAMi WebUI —— 一款将整个 GPU 集群呈现在单一可视化界面中的开源 GPU 监控仪表盘。
HAMi WebUI v1.1.0 现已作为首个正式主要版本发布,邀请你试用。
与 HAMi 核心调度器配合,WebUI 实现了完整的闭环:从 GPU 调度到可视化可观测性。
刚刚结束的 KubeCon + CloudNativeCon Europe 2026,释放出一个越来越明确的行业信号:
云原生正在快速从“应用运行平台”演进为 AI 基础设施的运行底座。
在阿姆斯特丹,围绕 Kubernetes、GPU、推理服务、Agentic AI 和异构算力调度的讨论,已经不再停留在概念层面,而是进入到更具体的工程实践、社区协作与基础设施范式演进阶段。
刚刚过去的 KCD Beijing 2026,是近年来规模最大的一次 Kubernetes 社区大会之一。
超过 1000 人报名参与,刷新历届 KCD 北京记录。
HAMi 社区不仅受邀进行了技术分享,也在现场设立了展台,与来自云原生与 AI 基础设施领域的开发者、企业用户进行了深入交流。
本次分享主题为:
从 Device Plugin 到 DRA:GPU 调度范式升级与 HAMi-DRA 实践
本文结合现场分享内容与 PPT,做一次更完整的技术回顾。附幻灯片下载:GitHub - HAMi-DRA KCD Beijing 2026。
下周,HAMi 将在 KubeCon + CloudNativeCon Europe 2026 的多项活动中亮相,包括 Project Pavilion 展台、技术分享、主舞台 Demo,以及会后 AI 相关活动。
作为 CNCF Sandbox 项目,HAMi 关注的 GPU 虚拟化、共享与调度问题,正在与 Kubernetes 生态中的 AI 基础设施议题发生越来越直接的交汇。KubeCon + CloudNativeCon Europe 2026 将于 3 月 23 日至 26 日在阿姆斯特丹举行,其中 3 月 23 日为 pre-event programming,3 月 24 日至 26 日为主会期。
HAMi 社区正式发布 HAMi v2.8.0。这是一个在 架构完整性、调度可靠性以及生态对齐 层面具有里程碑意义的版本。
v2.8.0 不仅引入了多项关键特性更新,也在 Kubernetes 原生标准对齐、异构设备支持、生产可用性与可观测性 等方面进行了系统性增强,使 HAMi 更加适合在长期运行、对稳定性和演进路径敏感的 AI 生产集群中使用。
本文将对 v2.8.0 的主要更新进行详细说明。

12 月 27 日,HAMi Meetup 北京站在近百位技术伙伴的参与下圆满落幕。作为 HAMi 社区的第二场线下活动,本次 Meetup 聚焦国产算力的生产实践与异构调度工程落地,来自贝壳、海光信息、第四范式、昆仑芯等企业的工程师分享了他们的一线经验。
11 月 30 日,首场 HAMi Meetup 在上海圆满结束。本次活动以"不卷算力卷效率"为主题,近百位 AI 开发者、运维工程师、企业 IT 架构师齐聚现场,聚焦异构算力调度的核心命题。

使用 HAMi 的过程中经常会出现 Pod 被创建出来 Pending 的 问题,犹以如下两个问题为著:
介于此,展开这部分代码的粗略走读,旨在说明调度过程中各组件的交互,以及资源的计算方式,其他细节会有所遗漏。
HAMi(异构 AI 计算虚拟化中间件),之前称为 k8s-vGPU-scheduler,是一种创新解决方案, 旨在管理 Kubernetes 集群内的异构 AI 计算设备。这个一站式中间件能够实现各种 AI 设备的共享, 同时确保不同任务之间的资源隔离。通过提高异构计算设备的利用率, HAMi 提供了一个统一的复用接口,以满足不同设备类型的需求。