服务热线:

13928851055

KAIYUN科技 | 大数据与人工智能 基础软件领导者

赋能数据未来,引领AI与大数据创新

KAIYUN(中国大陆)官方网站-创造最伟大的开云

行业新闻

GTC25 精选回放:通过 NVIDIA DOCA 加速的网络来构建下一代 AI 工厂

作者:小编 点击: 发布时间:2025-06-08 03:03

  

GTC25 精选回放:通过 NVIDIA DOCA 加速的网络来构建下一代 AI 工厂(图1)

  的潜力。通过利用 BlueField DPU 和 SuperNIC 的强大功能,DOCA 能够快速创建应用程序和服务,以卸载、加速和隔离数据中心工作负载。借助 DOCA,开发者可以通过创建软件定义、云原生、DPU 和 SuperNIC 加速的服务,并支持零信任保护,从而满足现代数据中心的性能和安全需求。

  观看 DOCA 相关专场回放的观众,还有机会获得NVIDIA 专属好礼,抽奖方式见文末指引。

  生成式 AI 正在彻底改变云数据中心,并不断突破计算的极限。随着企业争相利用 AI 的力量,对新型数据中心的需求应运而生,这类数据中心能够满足这些先进技术的严苛要求。NVIDIA DOCA 正引领这一变革,为 AI 和云计算领域的创新者提供了一套全面的工具,旨在创建专为生成式 AI 工作负载量身定制的先进云数据中心。本专题将介绍 NVIDIA DOCA 如何助力企业构建具有卓越性能、可扩展性和高效能的 AI 工厂,并深入探索使用 NVIDIA DOCA 的战略优势,包括增强的安全性、优化的数据处理能力以及与现有系统的无缝集成。加入我们,共同了解 NVIDIA DOCA 如何在推动 AI实现变革性业务成果方面所发挥的关键作用。

  未来的 AI 云计算需要的基础设施不仅功能强大,而且具备敏捷性、可扩展性和高效性。NVIDIA 和 CoreWeave 将分享他们的创新合作之旅—尖端网络与现实世界中云规模 AI 挑战的相遇。您将独家了解旨在释放 AI 全部潜力的 NVIDIA 全栈网络平台。作为 AI 超大规模提供商和早期采用者,CoreWeave 将展示他们如何利用 NVIDIA 网络平台的广度和深度来改造云基础设施。他们将讨论如何实现超级计算规模,并实现可靠性、深度可观测性和灵活性,以支持下一代 AI 工作负载。观看此次会议,探索使 AI 平台充分实现扩展的突破技术、经验和策略。深入了解推动行业发展的创新,以构建满足未来需求的基础设施。同时您将了解 CoreWeave 在 DOCA 上的创新应用。

  AI 正在改变各行各业,并为全球一些最紧迫的挑战提供解决方案。为了满足这种日益增长的需求,支撑 AI 的基础设施也必须不断发展—重点是可持续性和能源效率。NVIDIA 和 Crusoe 将讨论先进的网络解决方案如何开启 AI 驱动创新的新时代。了解 Crusoe 如何利用 NVIDIA的加速网络平台构建可持续的 AI 云,并在提供高性能的同时最大限度地降低能耗。探索由创新能源和 NVIDIA 网络技术支持的 Crusoe 的垂直集成基础设施如何与企业级控制、可扩展性和可持续性相结合,从而满足下一代 AI 工作负载的需求。同时您将了解 Crusoe 在 DOCA 上的创新应用。

  随着关键基础设施面临的威胁日益加剧(从复杂的恶意软件到国家级攻击),对运营技术(OT)环境中强大安全性的需求变得比以往任何时候都更加迫切。许多此类系统(有些是几十年前构建的)在设计时从未考虑过现代安全性。IT 与 OT 网络的融合(通常由远程访问需求而加速)引入了新的攻击途径。我们将展示 NVIDIA 网络安全 AI 平台(NVIDIA Cybersecurity AI Platform)如何与强大的合作伙伴生态系统相结合,无缝保护关键基础设施,而无需改变现有网络基础设施或其运行方式。

  您将了解到在主机、网络和应用程序级别实现实时可见性、执行命令级授权、实施零信任访问控制以及实时阻止网络攻击的策略。同时,探索这些协作创新如何帮助企业保护能源、公用事业和制造业的 OT 基础设施免受不断发展的网络威胁。了解领先的网络安全创新者如何利用 NVIDIA 网络安全 AI 帮助企业通过先进的网络发现和实时监测功能来保护 OT 系统。同时您将了解 NVIDIA DOCA 如何在提升网络安全上发挥作用。

  利用适用于 Kubernetes 的 DPU 加速服务代理来提升云原生 AI 工作负载性能

  AI 云大规模部署 AI 应用程序,通常是以容器化工作负载的形式加速云原生环境。为了满足大型语言模型(LLM)、检索增强生成(RAG)及其他 AI 应用程序的需求,AI 云基础设施依赖于 CPU、GPU、内存和存储之间的高带宽、低延迟互连。AI 云架构是基于 Kubernetes 集群构建的。Kubernetes 网络使容器化应用程序能够在 GPU 集群内直接通信。大规模部署 AI 应用程序需要高性能、高效的负载均衡、应用程序安全性、自动扩展和多租户支持。高效的代理基础设施服务为集群资源提供入口(ingress)/出口(egress)访问,而不会增加 CPU 和 GPU 的负担。您将了解如何通过云原生、硬件加速代理满足 AI 云需求。用 DPU 来卸载并隔离应用程序的交付服务,从而减少 CPU 开销,提升基础设施效率,同时最大限度地减少攻击面。同时您将了解 F5 在 DOCA 上的创新应用。

  生成式 AI 为行业带来了变革,也带来了传统防御手段无法应对的独特安全挑战。容器化是 AI 工作负载的基石,它支持跨平台的可重复和一致性部署,但也带来了需要创新解决方案的安全风险。本专题将探索一种由 DPU 驱动的尖端解决方案,以保护 NVIDIA NIM 及其他容器化 AI 工作负载。该解决方案利用实时内存取证技术,能够实时检测并阻止威胁。它独立于主机运行,创建了一个防篡改的信任域,从而保护每个 AI 节点。它专为现代 AI 工厂和云数据中心设计,可以隔离恶意活动、识别针对面向网络服务的攻击途径,并提供可操作的取证见解—所有这些都不会影响性能。了解这个下一代安全框架如何重新定义云原生 AI 环境的网络安全,为下一个创新前沿提供无与伦比的速度、敏捷性和信任。同时您将了解 Check Point 在 DOCA 上的创新应用。

  随着电信运营商为迎接 AI 时代而改造其网络,利用 BlueFiel-3 DPU 引擎对于开发者和客户来说都颇具挑战。然而,BlueField-3 是部署和保护加速计算集群以实现这种 AI 网络基础设施的关键部分。DOCA 平台框架(DPF)简化了这项任务,为生命周期管理(LCM)提供了个一个框架,并为作为平台的 BlueField-3 和作为 K8 容器在其上运行的服务提供了配置。DPF 在 K8 环境中通过两个网络运营商进行部署,使您能够部署和链接 NVIDIA 及第三方服务。由此,独立软件供应商(ISV)、操作系统(OS)供应商和开发者首次能够轻松部署和编排服务,并将这些工具集成到他们的环境中。在本专题中,采用 DPF 的 OS 和 ISV 合作伙伴公司将分享他们的经验、取得的成果以及未来的计划。

  步骤一:扫描下方二维码或复制以下链接至浏览器,进入 GTC 2025 首页,点击“立即加入 登录”。

  步骤四:在搜索框内,输入你想观看的 DOCA 相关会议的代码,如“S71638”,点击“”,页面会显示相关的会议结果。

  观看 DOCA 相关专场回放的观众,有机会获得由 NVIDIA 撰写的全球首部 DPU 编程入门书籍《数据处理器:DPU 编程入门》。

  该书籍由机械工业出版社出版,将为使用 NVIDIA BlueField 系列 DPU 和 NVIDIA DOCA 开发环境的开发者提供实用指南,助力开发者快速上手,掌握在 DPU 上灵活编程的密钥。

  抽奖方式:按以上观看指引注册 GTC25 并观看任意一场 DOCA 专场会议,转发以下微博并带上观看相关会议的截图,将抽奖送出 10 本《数据处理器:DPU 编程入门》!

  中奖通知:获奖结果将通过@NVIDIA英伟达网络官方微博通知,请留意消息提醒。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  上海一对夫妻想Kaiyun平台官方协议离婚,民政局却不给办!原来是因为妻子的这个情况...

  互联网有记忆 骗人只能骗一时!董明珠:格力改变100多年空调历史 让它风不吹人

  《编码物候》展览开幕 北京时代美术馆以科学艺术解读数字与生物交织的宇宙节律

  荣耀 400 维修备件价格公布:屏幕优惠价 809 元,电池 279 元

标签:
相关新闻
最新产品
在线客服
联系方式

热线电话

13928851055

上班时间

周一到周五

公司电话

13928851055

二维码
线