首页 首页

受益概念股揭秘 英伟达Blackwell芯片高功耗激增散热需求

摘要

随着英伟达新一代平台 Blackwell 的推出,对高性能液冷散热解决方案的需求预计将大幅增加。

英伟达 Blackwell 芯片架构

英伟达将于 2024 年底前推出 Blackwell,取代现有的 Hopper 平台,成为高端 GPU 的主力方案。Blackwell 平台的高功耗将推动数据中心散热液冷供应链的增长。

液冷散热解决方案

传统气冷散热解决方案无法满足 Blackwell 的高功耗要求,需要搭配液冷方案以有效解决散热问题。目前,维谛技术是 NVIDIA AI 方案的主要 CDU 供应商。

受益概念股

英维克(002837)

受益揭秘英伟达Blackwell芯片高

申菱环境

液冷技术趋势

在 AI 芯片架构升级的大趋势下,高算力与高功耗相匹配,液冷已从选配到必配。相关公司有望在液冷趋势下快速放量。

液冷技术的优势

液冷散热效率天然优于风冷,能够应对高密数据中心散热需求。同时,液冷技术还能够降低成本和提高能效。

我国液冷数据中心市场

近年来,我国液冷数据中心发展迅速,市场规模不断增长。国家政策也大力支持液冷技术的普及,推动行业快速发展。

结论

英伟达 Blackwell 平台的推出将极大地推动对高效液冷散热解决方案的需求。投资者可以重点关注具有全链条优势和业绩增长的液冷概念股,如英维克和申菱环境。


英伟达最强芯片投产!AI算力板块又爆发!相关概念股名单出炉

英伟达宣布,其“全球最强大的芯片”Blackwell芯片已开始投产,预计将于2025年推出Blackwell Ultra AI芯片,并计划于2026年发布下一代AI平台Rubin,采用HBM4记忆芯片。 这一消息影响了A股市场,AI算力概念持续活跃,特别是铜缆高速连接方向表现出色。 英伟达Blackwell芯片作为算力核心,其投产有望推动国产AI算力产业链增长。 AI算力需求在海内外大模型不断迭代中呈现爆发性增长。 算力作为支撑和推动数字经济发展的核心力量,对科技进步发挥着重要作用。 AI算力是指用于人工智能任务的计算能力,涉及复杂的数据处理、模型训练和推断等操作,需要高性能计算设备提供支持。 今年以来,海外应用、算力和模型发展迅速。 OpenAI、Anthropic、马斯克开源的大模型Grok-1,以及英伟达在GTC大会上推出的新一代GPU GB200,共同推动全球AI产业发展。 国内模型和应用也在不断突破,算力需求逐步扩大。 例如,Kimi上下文长度提升、阶跃星辰发布万亿参数大模型预览版,标志着国产AI大模型取得显著进步。 据IDC报告,2023年中国人工智能服务器市场规模预计将达91亿美元,同比增长82.5%,预计到2027年将达到134亿美元,年复合增长率达21.8%。 训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦电力,持续90天。 如果中国有十家大模型公司,则需要8万张H100 GPU。 推理算力需求预计是训练的数倍,高达几十万张H100。 华为凭借其国内AI芯片技术优势,在算力自主可控领域处于领先地位,已形成万卡集群,并在科大讯飞、部分互联网大厂用于AI大模型训练。 科大讯飞携手华为发布的“飞星一号”万卡国产算力平台,支持万亿参数大模型高速训练,采用升腾AI硬件训练服务器和大容量交换机构建无损ROCE组网,配置高空间全闪和混闪并行文件系统。 华为算力产品包括升腾和鲲鹏系列,覆盖端、边、云全场景应用。 升腾AI芯片是国产AI芯片龙头,2022年市场份额约79%。 华为主打的AI芯片产品有310和910B,分别针对推理和大模型训练需求。 升腾计算产业提供全栈AI计算基础设施、行业应用及服务,包括AI芯片、硬件、软件、管理运维工具等。 AI算力产业链包括上游算力基础硬件设施、中游算力网络与平台、以及下游应用场景与用户。 华为与科大讯飞的合作,推出自主可控的星火一体机,为大中型企业与行业客户内部网络部署提供支持。 在投资时需注意风险,股市有风险,投资需谨慎。

详解最强AI芯片架构:英伟达Blackwell GPU究竟牛在哪?现场对话技术高管

英伟达的Blackwell GPU在AI芯片领域独领风骚。 其通过创新技术,如高带宽内存、Chiplet先进封装、片内互联及高性能通信优化,构建了专为万亿参数级生成式AI设计的强大系统基础。 同时,英伟达注重数据中心客户的需求,强调系统级性能和能效提升,而非单纯追求单芯片峰值性能。 其对摩尔定律的适应、数据中心作为AI工厂的定位、模型规模与数据量的增长趋势、高性能推理与生成的关键性,都体现在了Blackwell架构的设计中。 英伟达通过不断优化内存、带宽、互联技术,以及采用创新的封装策略,有效降低了与计算相关的成本和能耗,实现了从单芯片到系统级的全面升级。 在面对AI算力需求的空前爆发和竞争激烈的市场环境,英伟达Blackwell GPU通过提供更高性能、更低成本、更高效能的AI解决方案,为数据中心客户带来了显著优势。

见证 AI 的变革时刻:高速光模块,以太网交换机和液冷技术

英伟达GTC 2024大会发布了GB200芯片及配套架构,通过提升GPU互联带宽、采用高性能光模块和交换机,并部署液冷技术,推动AI计算效能与数据中心能效升级。 在英伟达 GTC 2024 大会上,黄仁勋发表“见证 AI 的变革时刻”演讲,并推出了GB200芯片及相关架构,通过大幅提升GPU间的互联带宽并采用1.6T光模块。 同时发布全球首批端到端800G吞吐量的InfiniBand和以太网交换机,以及采用液冷技术的服务器解决方案,全方位推动AI计算性能革新和数据中心能效提升。 1 高速光模块在GTC 大会上,英伟达揭晓了新一代 GB200 芯片,业界正密切关注这款芯片如何重塑光模块市场需求格局。 在去年五月末的 COMPUTEX 展会上,英伟达首度公开其 GH200 芯片。 经估算,在由256颗GH200构建的集群配置中,所需的800G光模块数量高达2304个,平均每颗芯片配备的光模块比例达到了空前的1:9。 本次发布会上崭露头角的GB200同样秉持了这一设计理念,依据黄仁勋在演讲中的披露,单个GPU之间的双向通信带宽已经由先前的900GB/s跃升至1800GB/s。 而在集群配置上,一个标准机柜能装载上限为72颗BlackwellGPU,借助新一代NVLink5交换技术,可以实现多达576颗GPU的互联;并且通过InfiniBand或以太网交换机,集群规模还可进一步扩容至上万个GPU节点。 该方案在单台机架中配置了 36 颗 GRACE CPU 和 72 颗 Blackwell GPU,通过铜缆的方案将该 72 颗 Blackwell GPU 进行互联,这一点与 GH200 方案类似,即:第一层网络无需光模块互联。 正如黄仁勋主题演讲所揭示,在GB200的单机柜配置中,得益于全新一代NVLink Switch芯片的支持,GB200能够组建一个由576颗Blackwell GPU构成的计算集群,显著超越了前代GH200所支持的最大256颗GPU集群规模。 就互联带宽而言,集群内的每一颗Blackwell GPU都能实现双向1800GB/s的高速传输,相较于GH200,带宽性能整整翻了一番,这也意味着对应的光模块需承载的带宽加倍,从而催生了对1.6T光模块的需求。 下面我们参照上述逻辑进行估算:据此推算得出,在GB200芯片与1.6T光模块之间,它们的理想使用比例同样是576:5184=1:9,即单个芯片数与光模块的比例为1:9。 2 以太网交换机英伟达隆重推出了Quantum-X800 InfiniBand系列与Spectrum-X800以太网交换机产品,成为全球率先实现全程800GB/s数据传输速率的网络解决方案,携手英伟达的配套软件套件,能够有力地促进各种类型数据中心内人工智能任务、云端运算、大数据处理以及高性能计算应用的执行效率,此创新同样适用于基于Blackwell架构新近构建的数据中心环境。 英伟达 Quantum-X800 和 Spectrum-X800 交换机两者的早期应用客户有微软Azure、甲骨文云基础设施和 CoreWeave。 其中 Quantum-X800 相比上一代,使用 SHARPv4下的带宽容量提高 5 倍、网络计算能力增加 9 倍至 14.4TFlops。 Spectrum-X800 优化网络性能,转为多租户环境设计,可确保每个租户的 AI 工作负载的性能隔离,以保持最佳且一致的性能水平,从而提高客户满意度和服务质量。 在国内,新华三与华为两大企业紧随交换机技术升级的步伐,相继推出了自家的800G数据中心交换机产品。 如新华三在NAVIGATE领航者峰会上全球首度推出了旗下51.2Tbps速率的800G CPO硅光数据中心交换机系列产品——H3C S9827系列。 图:新华三全球首发 800G CPO 硅光数据中心交换机这款产品内置的单芯片传输速率高达51.2T级别,支持64个800G的端口。 在保证高吞吐性能的同时,借由CPO硅光技术的优势,进一步将单端口传输延迟降低了20%,这一改进意味着在同样的时间周期内,AIGC集群内部GPU之间的数据交换能力可以得到25%的增长,显著提升了GPU的整体计算效能。 一样,华为在 2023 年 6 月第 31 届中国国际信息通信展中发布首款 800GE 数据中心核心交换机——CloudEngine -X 系列:图:华为首发 CloudEngine -X 800GE 数据中心交换机华为声称其CloudEngine -X支持 288 个 800GE 端口,具备3.5 微秒跨板转发时延,整体TCO可降低 36%。 3 液冷技术在英伟达 GB200 的方案中,其机架具有 2 英里长的 NVLink 布线,共 5000 根电缆,估算其功耗将达 20KW及以上。 因此,服务器亟需更高效的散热方式。 为了让这些计算快速运行,英伟达将采用液冷的设计方案,冷却液输入/输出水温分别为 25℃/45℃。 除了英伟达,AI 服务器厂商超微电脑预计将在24Q2内扩产液冷机架。 GB200 NVL72 液冷机架示意图同时,国内产业链也在协同推进液冷技术的发展。 三大运营商在去年 6 月发布了《电信运营商液冷技术白皮书》,并提出 25 年及以后液冷在 50%以上项目规模应用的愿景。 电信运营商液冷技术规划

通过万利股票开户网预约开户,股票佣金不到万一,期货手续费,股指期货、期权品种均可享受全国最低手续费的优惠,有意咨询开户微信:gpkhcom,有专人一对一指导开户服务!

相关文章