KubeCon EU 2026 已经落下帷幕云原生正在从应用运行平台快速演进为 AI 基础设施的运行底座。 作为 HAMi 项目的发起者和核心推动者密瓜智能从 Maintainer Summit、Lightning Talk、Project Pavilion 到最后登上 KubeCon 主论坛 Keynote Demo完成了一次具有标志性意义的集中亮相。刚刚结束的KubeCon CloudNativeCon Europe 2026释放出一个越来越明确的行业信号云原生正在快速从“应用运行平台”演进为 AI 基础设施的运行底座。在阿姆斯特丹围绕 Kubernetes、GPU、推理服务、Agentic AI 和异构算力调度的讨论已经不再停留在概念层面而是进入到更具体的工程实践、社区协作与基础设施范式演进阶段。李孟轩和 Reza Jelveh 在 KubeCon Keynote Live Demo13000 参会人现场KubeCon Keynote 现场照片作为HAMi 项目的发起者和核心推动者「Dynamia 密瓜智能」与全球开发者、开源项目维护者、CNCF 社区及产业伙伴一起深度参与了这场变化。从 Maintainer Summit、Lightning Talk、Project Pavilion到最后登上KubeCon 主论坛 Keynote DemoHAMi 在本届大会上完成了一次具有标志性意义的集中亮相。Kubernetes 正在进入 AI Infra 阶段如果说过去 Kubernetes 主要解决的是• 容器编排• 微服务治理• 云原生应用交付那么在这届 KubeCon 上更受关注的问题已经变成了• AI workload 如何更高效地运行在 Kubernetes 上• GPU 如何被共享、切分、调度和隔离• LLM serving 与底层资源管理如何协同• 异构算力如何被统一纳入云原生调度体系这些问题背后对应的是一个更本质的变化Kubernetes 正在从编排应用走向编排算力。这也正是 HAMi 所处的位置。从 Maintainer Summit 开始HAMi 进入更核心的社区讨论在大会前的Maintainer Summit上「Dynamia 密瓜智能」联合创始人兼 CTO 李孟轩分享了 HAMi 对 AI 工作负载的见解。密瓜智能 CTO 李孟轩在 Maintainer Summit 上分享 HAMi Insight on AI Workloads随后团队参与了 CNCF 闭门会议与 CNCF TOC 主席 Karena Angell、Red Hat 以及 vLLM 社区成员 Brian Stevens、Robert Shaw 等进行了深入交流。密瓜智能与 CNCF TOC、Red Hat、vLLM 社区分享交流 GPU Sharing这次讨论很有代表性因为它并不是停留在某个项目怎么做功能而是在讨论一个更大的问题当 LLM serving、GPU 资源管理和 Kubernetes 在真实生产环境中开始汇合时基础设施层需要什么样的新抽象现场交流中HAMi 所推动的方向引起了明显关注。大家越来越意识到GPU 已经不能只被看作一个简单设备而正在变成一种可以被调度、共享、治理的基础设施资源层。这也是为什么HAMi 与 vLLM 等项目之间的协同开始变得越来越自然。在本次活动中双方已经开始探讨后续的联合内容合作与技术交流这也说明 AI Infra 生态正在加速从单点项目走向组合式协作。另外 HAMi 项目也正在申请 CNCF 孵化工程中HAMi 在 TAG workshop 中作为代表项目参与了讨论。TAG Workshop 讨论 CNCF 的项目治理两场技术分享从社区问题到工程实现在正式大会期间密瓜智能团队围绕 HAMi 参与了两场重要分享。张潇K8s Issue #52757: Sharing GPUs Among Multiple Containers这个问题#52757并不是一个新问题而是在 Kubernetes 社区中存在多年的未被彻底解决的问题。随着 AI workload 的爆发这个问题被重新放大• 推理服务需要更细粒度的 GPU 使用方式• 多租户环境要求资源共享• AI workload 的形态决定了 GPU 不再适合独占这也是为什么这个看似底层的问题开始成为 AI 基础设施的核心问题之一。张潇在 KubeCon 的 Cloud Native AI 论坛上分享 HAMi「Dynamia 密瓜智能」创始人兼 CEO 张潇的分享从 Kubernetes 社区长期存在的一个经典问题出发多个容器如何共享 GPU这个问题看似具体但实际上指向的是整个 AI 基础设施生态共同面临的难题。因为一旦进入推理、批处理、在线服务和多租户混合场景GPU 就不再适合以整卡独占的方式被简单分配。这场分享的重要性在于它把 HAMi 所解决的问题放回到了 Kubernetes 社区的原始语境中不是另起炉灶做一个孤立方案而是在回应一个长期存在、尚未被彻底解决的 upstream 问题。李孟轩Dynamic, Smart, Stable GPU-Sharing Middleware in Kubernetes「Dynamia 密瓜智能」联合创始人兼 CTO 李孟轩的这场则分享聚焦 HAMi 的核心架构与能力系统介绍了• GPU 虚拟化• GPU 共享与调度机制• 稳定性与生产可用性设计• 在 Kubernetes 中实现 AI workload 资源管理的思路李孟轩在 KubeCon 上分享 HAMi这并不只是介绍一个项目功能而是在回答一个更实际的问题在 Kubernetes 尚未原生解决 GPU 共享问题的前提下企业如何真正把 AI workload 跑起来并跑得更稳、更高效Project Pavilion把技术讨论带到面对面的全球交流中除了议题分享HAMi 还在 KubeCon EU 2026 的Project Pavilion设有展台。前往 HAMi 展台交流的人络绎不绝在这几天里展台成为了非常密集的交流现场。前来交流的人群覆盖了• 海外开发者与贡献者• 企业用户与平台团队• 高校、研究机构人员• 云厂商及 GPU 生态相关从业者• 对 AI infra、异构算力和 Kubernetes GPU 调度感兴趣的社区成员在现场我们也结交了更多社区贡献者。来自印度的贡献者 Rudraksh Karpe中间和 Shivay Lamba右在 Poster Session 中社区贡献者制作了 Kubernetes as the universal CPU control plane 的示意图。Kubernetes as the universal GPU control plane这类交流的价值不只是增加曝光而是帮助团队更直接地验证一件事GPU 调度、资源共享和异构算力管理已经成为全球范围内的真实需求而不是某个局部市场的特殊问题。现场不少讨论都围绕同一个核心展开• 如何提升 GPU 利用率• 如何降低碎片化• 如何支持更复杂的 AI workload• 如何让 Kubernetes 更自然地承载 AI infra对于 HAMi 来说这意味着它不只是一个有趣的开源项目而是在逐渐进入全球 AI 基础设施讨论的主航道。Keynote DemoHAMi 登上 KubeCon 主论坛舞台KubeCon Keynote Linux Foundation CEO Jonathan 和 CNCF CTO Chris 联合主持如果说演讲和展台代表的是专业圈层中的认可那么这次 KubeCon 最具标志性的时刻无疑是HAMi 作为第一个中国原创的开源项目登上了 KubeCon EU 2026 的主论坛 Keynote并完成了现场 Demo 展示。这是这次参会最关键、也最值得被强调的一环。在主论坛环节中李孟轩与 Reza JelvehHead of Global Market Solution Engineer进行了现场 Demo 展示了 HAMi 的基于 Kubernetes 的多 workload GPU 调度场景。李孟轩和 Reza 现场 DemoDemo 以两个典型 AI workload 为例一类是 YOLO 推理服务另一类是 Qwen3-8B 大模型推理任务。在传统 Kubernetes 调度模型中这两类任务通常需要独占 GPU 运行而在 HAMi 的调度模型下GPU 被拆分为算力 显存的资源单元可以被多个 Pod 按需共享。在实际演示中多个 YOLO 实例被调度到同一张 GPU 上运行而 Qwen3-8B 模型则通过 binpack 策略与其他 workload 共同部署在同一 GPU 上。不同类型的 AI workload 在同一 GPU 上共存同时保持资源隔离与调度可控。这个 Demo 所呈现的并不仅仅是 GPU 利用率的提升更重要的是一个新的基础设施能力GPU 从设备转变为可调度资源而 Kubernetes 正在具备管理 AI workload 的基础能力。这不是普通展台 demo也不是分会场技术分享而是在万人规模关注的主舞台上把 HAMi 带入了更广泛的全球视野。这件事的意义至少有三层第一说明 AI 基础设施议题已经进入 KubeCon 的主叙事过去KubeCon 主论坛更多聚焦 Kubernetes 本身、基础平台能力、生态协作与典型案例。而这次HAMi 这样的 GPU 资源管理项目能够进入主论坛 demo说明AI workload 如何运行在 Kubernetes 上已经成为云原生社区必须正面回答的问题。第二说明 GPU 调度不再只是边缘话题GPU 共享、虚拟化、资源隔离、异构调度这些问题过去往往更多存在于专业小圈子中。但现在它们已经从专门领域问题变成基础设施共同问题。在 TOC 讨论和社区交流中多个项目包括 vLLM 相关实践已经开始直接依赖底层 GPU 调度能力这类问题不再停留在 SIG 内部而是进入更广泛的生态讨论。HAMi 能够在主论坛被展示意味着这一方向正在被更广泛地看见。第三这也是 HAMi 社区与密瓜智能共同积累的结果一个开源项目能够走到 KubeCon 主舞台不会只是因为有个功能能演示。它背后一定是• 技术方向与行业趋势对上了• 社区价值开始被看见• 项目在生态中的位置正在变得更清晰这次 keynote demo不仅是一次展示也是一次定位确认HAMi 正在从 GPU sharing 工具走向 Kubernetes 上 AI 算力资源层的重要组成部分。AI Native Summit另外在 KubeCon 大会后还举办了同场活动 AI Native Summit。与 KubeCon 主会场相比AI Native Summit 的讨论更加直接聚焦在一个问题上AI workload 的运行效率正在成为新的基础设施瓶颈。在这个语境下GPU virtualization 和调度问题不再是 Kubernetes 内部优化而是直接影响模型服务成本、响应时间和系统吞吐能力的关键因素。Reza 分享了《HAMi: Heterogeneous GPU Virtualization and Scheduling for AI-Native Infrastructure on Kubernetes》。Reza 在 AI Native Summit 上分享 HAMiReza 还代表「Dynamia 密瓜智能」参与了主题为《AI Native Technology》的圆桌讨论。Reza 参与 AI Native Technology 圆桌讨论本次 AI Native Summit 汇聚了来自云原生、AI 基础设施及电信行业的技术专家围绕 AI 原生架构的演进展开深入探讨。会议重点关注在大模型和 Agent 驱动背景下基础设施如何从传统的服务化、请求响应模式演进为面向推理、会话和自治决策的新一代平台体系涵盖 AI 网关、推理调度、多模型路由以及多租户隔离等关键议题体现了从云原生向 AI 原生持续演进的行业趋势。一个值得注意的细节HAMi 已经进入更大的云原生语境除了现场 demo 和分享之外这次大会还有一个很重要的外部信号在主舞台分享中HAMi 也被作为Cloud Native Landscape 扩展背景下的代表性案例被提及。HAMi 作为 Cloud Native Landscape 的扩展项目在 Keynote 中被重点提及这说明HAMi 的意义已经不只是某个项目在做 GPU 调度而是在更大的云原生演进语境里被看作新一代基础设施问题的代表。换句话说云原生社区正在意识到• 过去那套围绕 CPU / 内存 / 网络 / 存储构建的资源模型还不够• AI 时代需要新的资源抽象• GPU、推理、异构设备与工作负载治理正在成为下一阶段的重要基础设施议题而 HAMi 正是在这个转折点上提供了一种清晰、务实、可落地的工程路径。从项目到生态这次参会的真正收获是什么回看这次 KubeCon密瓜智能的收获并不只是做了几场分享、搭了一个展台、完成了一次 demo。更重要的是团队清晰感受到1. 全球社区对 AI Infra 的关注正在快速升温大家已经不再满足于讨论模型和应用本身而是在追问• 底层怎么跑• 资源怎么调• 效率怎么提升• 系统怎么稳定2. Kubernetes 与 AI 的结合正在进入深水区现在的问题已经不再是能不能跑而是• 能不能高效地跑• 能不能大规模地跑• 能不能在生产环境稳定地跑3. HAMi 所在的位置越来越明确HAMi 不再只是做 GPU 共享的一个项目而是在逐步形成自己的独特定位面向 Kubernetes 的 GPU 资源层与异构算力调度能力。这也是密瓜智能持续投入 HAMi 社区建设与产品化能力的原因。因为我们相信未来 AI 基础设施竞争的关键不只是模型能力也包括底层算力资源是否能够被更高效、更灵活、更工程化地组织起来。结语AI 时代基础设施的故事才刚刚开始KubeCon EU 2026 让我们更加确信云原生不会被 AI 替代反而会因为 AI 被重新定义。从展台交流到议题分享再到主论坛 demoHAMi 在这次大会上的亮相不只是一次参会记录更像是一个信号围绕 GPU、推理与异构算力的云原生基础设施正在进入新的阶段。「Dynamia 密瓜智能」也将继续与 HAMi 社区、全球开发者和生态伙伴一起推动 Kubernetes 更好地承载 AI workload让算力资源被更高效地组织、调度和释放。密瓜智能团队与社区小伙伴在 KubeCon 会场外合影阿姆斯特丹已经落幕但关于 AI 基础设施的下一阶段才刚刚开始。如果你同样关注 AI 基础设施、GPU 虚拟化以及 Kubernetes 在 AI 时代的演进欢迎加入密瓜智能与我们一起推动这一领域的下一步发展。关于密瓜智能「上海密瓜智能科技有限公司」专注 GPU 虚拟化与异构算力调度提升 AI 场景下的算力利用率公司发起并主导了 CNCF 开源项目 HAMi这是业界唯一实现灵活、按需、弹性、可靠 GPU 虚拟化的开源项目已支持主流 AI 芯片生态。了解更多信息欢迎访问官网dynamia.ai联系邮箱infodynamia.ai。