热搜词: 贝特瑞 科兴

AI算力界, 也有了“安卓系统”

在全球AI竞赛迈入深水区的当下,真正的竞争已不再是单点技术的突破,而是生态与架构的定义权之争。生态碎片化、算力成本高企、技术代差隐现——这些瓶颈,正倒逼中国AI产业寻找新的解法。

当大模型飞速迭代、算力需求成倍攀升,高端算力是否只能走封闭优化的老路?什么样的基础设施和生态才能支撑可持续创新?

在9月5日开幕的2025世界智能产业博览会上,中科曙光携手二十余家产业链企业,给出了答案——国内首个“AI计算开放架构”正式发布,AI超集群系统同步亮相,多项关键技术能力开放,并启动“AI计算开放架构联合实验室。这一系列动作,并非单一产品的迭代,而是一次面向生态重构的积极信号。

正如移动互联网时代既需要iOS更需要安卓,AI时代同样呼唤多元、开放、可进化的架构与生态。

正如智博会上中科曙光高级副总裁李斌所说的,“国内的智算产业,就像智能手机圈一样,不仅需要苹果这类大企业,还需要安卓式的生态创新模式,”中科曙光有技术、有能力、也有责任来推动AI计算领域的开放协作与生态构建。

毕竟,封闭体系或许能赢得一时的高效,但开放与协同,才是通向下一代智能计算的核心命题。

AI超集群系统实现性能跃升,开放架构推动算力普惠

本次智博会上发布的国内首个AI计算开放架构,正是“算力开放”理念的承载——其面向大规模智能计算场景,以GPU为核心,围绕“算、存、网、电、冷、管、软”七大维度,构建紧耦合系统设计,旨在实现从单点技术突破到集群协同创新的跨越,具备多元算力、高速互连、存算协同、绿色高效、稳定可靠、生态繁荣等主要特征。

作为该架构的落地成果,曙光AI超集群系统也在智博会上正式亮相。据介绍,该系统拥有“超高性能、超高效率、超高可靠、全面开放”四大特征,单机柜支持96张加速卡、提供百P级算力,并可扩展至百万卡超大规模集群。

在性能层面,系统通过存算传协同设计、“超级隧道”AI存储优化、先进冷板液冷技术、软硬协同调度与智能调度大模型等创新,实现系统性能效率大幅提升,实测千卡集群大模型训推性能达到业界主流水平2.3倍,模型开发效率提升高达4倍,GPU算效增加55%,平均无故障时间(MTBF)提高2.1倍,平均故障修复时间(MTTR)降低47%。

值得注意的是,与专有传统封闭系统不同,曙光AI超集群支持多品牌GPU加速卡,兼容包括CUDA在内的主流软件生态,为用户带来更多硬件选型自由和更低的开发迁移成本。

五大层面打破“重复造轮子”,走向生态协同

不久前DeepSeek在发布V3.1更新时的一句“UE8M0FP8是针对即将发布的下一代国产芯片设计”,不仅点燃了A股投资者对国产算力板块的热情,更反映出了国产AI软硬件生态正进一步走向协同融合的大趋势。

但相比算力开放,生态协同更为复杂。开放生态要求从芯片设计之初便开展深度融合与协同规划,并将协作贯穿整个生命周期。因此,需要由具备全面技术实力的企业牵头,建立并推动协同机制运转。

在这次智博会上,中科曙光沿着产业链进一步推进横向协同合作。其联合芯片、整机等多家企业宣布开放一批关键技术能力。首批公开的三项技术能力包括AI存储优化、液冷基础设施设计规范、DeepAI基础软件栈,覆盖部件、系统、基础设施、软件及数据集五大层面,旨在降低中小企业的研发门槛,避免“重复造轮子”。

同时,中科曙光还携手20多家智算上下游企业,依托国家先进计算产业中心共同启动建设“AI计算开放架构联合实验室”,以推进产业链开放跨层协作优化。

纵观整场发布,不难看出中科曙光与其生态伙伴的清晰路径:从技术单点突破走向系统集群创新,从企业单打独斗走向产业协同共创。这背后的目标不仅是推出高性能产品,更在于构建一个真正开放、普惠、安全可控的国产智算生态体系。在这次智博会上,以中科曙光为代表的国产算力产业链玩家推动的改变,或许有望成为中国智能计算从“可用”走向“好用”、迈入“安卓时刻”的重要里程碑。