首页 首页

首个国产液冷万卡算力集群投建 支撑万亿参数大模型 受益概念股一览

近日,中国电信宣布,将在上海规划建设15000卡的智算集群,总算力超4500P,其中单池新建国产算力达万卡。这是国内首个单池万卡液冷算力集群,也是迄今为止规模最大的全国产液冷机房。

主要技术指标

  • 最高可支持万亿参数大模型
  • 通过高速RDMA连接各物理机节点,提供低延时、高吞吐量、无损通信网络和强大的并行计算能力
  • 多项技术指标领跑全国

应用场景

该集群适用于以下场景:

  • AI计算
  • 深度学习
  • 图形渲染
  • 复杂训练任务

市场前景

随着ChatGPT等AI技术的兴起,对算力的需求不断增长。因此,算力产业发展迎来重大机遇。

我国算力规模呈高增长态势。据统计,截至23年8月,我国在用数据中心机架总规模超过760万标准机架,算力总规模达到197FLOPS,近五年年均增速近30%。

在国家政策的支持下,国产算力有望呈现爆发式增长。AI发展下算力产业发展迎来重大机遇,相关服务生态逐步构建。

受益概念股

机构建议关注以下产业链相关企业:

  • 国产AI芯片
  • 华为升腾一体机厂商
  • AI服务器整机厂商
  • 算力运维
  • 先进封装

结论

首个国产液冷万卡算力集群的投建将进一步提升我国AI算力水平,为AI技术的发展和应用提供强有力的支撑。

首个国产液冷万卡算力集群投建支撑万亿参数大模

首个国产全功能GPU的万卡集群来了!“中国英伟达”出品

首个国产全功能GPU的万卡集群正式发布,以“中国版英伟达”的摩尔线程为代表,引领国内算力发展新潮流。 这个万卡集群的算力强大,超万P,专为训练万亿参数级别的复杂大模型而设计。 摩尔线程对自家的智算中心全栈解决方案“夸娥”进行升级,打造出了这一强大集群。 国内算力发展加速,上半年已有多个头部玩家宣布布局万卡集群,万卡国产GPU相对较少见。 生成式AI为主旋律的大模型热潮推动了Scaling Law的持续效果,训练GPT-4所需的GPU数量已达到个。 大模型架构呈现多元化趋势,AI、3D和HPC跨技术融合不断加速。 面对更高、更复杂、更多样化的要求,万卡集群已成为大模型玩家的最低标配,促使国产GPU大步迈入“万卡时代”。 摩尔线程创始人兼CEO张建中表示,当前正是生成式人工智能的黄金时代,GPU成为新技术浪潮加速的关键引擎。 夸娥万卡智算集群作为摩尔线程全栈AI战略的重要组成部分,将为各行各业的数智化转型提供澎湃算力。 摩尔线程希望解决大算力问题,帮助国家和行业。 摩尔线程如何在短时间内率先跨入“万卡俱乐部”?关键在于目标明确,遵循“好用=规模够大+计算通用+生态兼容”的公式。 升级后的夸娥万卡集群具备五大特点:超大算力、有效计算效率(MFU)、稳定性、通用性和生态友好。 夸娥万卡集群的超大算力达到10Exa-Flops,显存容量和卡间互联总带宽均达到PB级,实现算力、显存和带宽的系统性协同优化。 通过系统软件、框架和算法的优化,集群的MFU值最高可达60%,实现对大型模型的高效训练。 稳定性方面,集群的平均无故障运行时间超过15天,最长可达30天以上,周均训练有效率目标为99%。 通用性和生态友好是集群的另一重要特点,专为通用计算场景定制,能够为LLM、MoE、多模态和Mamba等多样化架构提供加速支持。 MUSA编程语言和CUDA兼容性确保了生态系统的即时适配性,实现新模型的“Day0”级迁移。 虽然从数字上看,从千卡到万卡只是多了一个0,但难度增加了一个指数级。 集群涉及参数面网络、数据面网络、业务面网络、管理面网络等不同网络的部署方式,对参数面网络的要求最高。 集群有效计算效率受限于芯片计算性能、GPU显存的访问性能、卡间互联带宽、分布式并行策略等因素。 此外,还需面对训练高稳定与高可用、故障快速定位与可诊断工具、生态快速迁移、未来场景通用计算等问题。 摩尔线程为何要啃下这块硬骨头?随着大模型快速迭代,算力需求变得更为紧迫。 主流大模型玩家已配备万卡集群,以保持在业界的领先性。 摩尔线程通过万卡集群和全栈方式打造大模型训练超级加工厂,以匹配快速更新的大模型速度。 为什么摩尔线程能做到?早在2022年,团队就设定建集群的大方向与策略,以应对A100算力紧缺的市场需要。 摩尔线程在功能上是唯一能对标英伟达的国产GPU企业。 随着2023年大模型火爆,集群式方向更加正确。 摩尔线程为此做了充分准备,前瞻性的策略和决定得到了证实。 市场认可度成为关键,夸娥万卡方案能否把握高端算力的空窗期,由市场决定。 摩尔线程始终前瞻性地推动国产GPU发展,再次拿下“国内首个”头衔。

通过股票开户网预约股票开户,交易佣金万分之0.874。比您自己去证券公司营业厅办理开户,能多节省70%的交易佣金。开户微信:gpkhcom

相关文章