在已结束的2025世界人工智能大会上,AI产业的核心底座——以AI芯片、板卡、服务器、计算集群等为核心构成的算力基础设施,成为整个盛会期间绕不开的热点话题。
在已结束的2025世界人工智能大会上,AI产业的核心底座——以AI芯片、板卡、服务器、计算集群等为核心构成的算力基础设施,成为整个盛会期间绕不开的热点话题。
WAIC 2025:国产AI芯片大放异彩,算力成本仍待优化
在 WAIC 2025 现场,各大国产AI芯片厂商纷纷亮出 “利剑”。华为首次线下展出的昇腾 384 超节点(Atlas 900 A3 SuperPoD)堪称算力 “巨兽”。其借助全对等(Peer-to-Peer)UB 总线和无阻塞 Clos 架构,将 384 颗 NPU 与 192 颗鲲鹏 CPU 通过全新高速网络MatrixLink全对等互联,形成一台超级“AI服务器”,打造出高达 300PFLOPS 的单集群算力,全力冲击当下算力巅峰。
沐曦发布的旗舰 GPU 曦云 C600,采用HBM3e显存(第五代高带宽内存),数据存储容量从上一代C500的64GB提升至144GB。值得一提的是,HBM3e是当前市场上较先进的高带宽内存产品,仅次于最新的HBM4。该芯片基于沐曦自主知识产权核心GPU IP架构,集成大容量存储与多精度混合算力,支持MetaXLink超节点扩展技术,并内置ECC/RAS多重安全防护模块,为金融、政务等关键领域提供算力基座。
计算架构创新:打破瓶颈与满足多元需求的必然之路
从WAIC 2025上国产AI芯片的创新成果能清晰看出,随着AI应用越来越深入,计算架构正朝着打破资源壁垒、提升调度效率的方向快速发展。
华为昇腾 384 超节点通过特殊的连接方式,把384颗NPU与 192 颗鲲鹏 CPU高效连接起来,核心就是解决了多芯片集群里计算和存储单元 “沟通慢” 的问题。当处理万亿级参数的大模型时,单节点内部的数据交换量极大,传统的连接方式容易造成拥堵,而新的无阻塞设计能让数据自主选择最优路径传输,让算力的利用率从 60% 提升到 90% 以上。
沐曦曦云 C600 的超节点扩展技术,进一步证明了分布式架构的价值。单节点的算力难以应对,而超节点扩展技术能把任务拆分成多个子模块,通过低延迟连接实现多节点协同计算。这种 “算力池化” 模式不仅能满足高密度计算需求,还能通过动态调配资源,让同一个集群既能支撑训练时的算力爆发,又能应对推理时的持续负载,最大限度提高资源利用率。
这些技术突破都指向一个核心趋势:AI 算力基础层已经从 “单纯提升芯片性能” 转向 “系统级架构重构”,本质上是打破计算、存储、通信之间的物理限制,建立更适合大模型时代的数据处理模式。
存算一体技术破局,知存科技一马当先
在此背景下,存算一体技术作为极具潜力的创新路径,正成为满足 AI 算力基础层需求的关键。传统架构下,数据存储和计算分离带来的 “存储墙” 问题,严重制约着算力提升和能效优化。存算一体技术将存储和计算功能融合,大幅缩短数据传输距离,显著提升运算效率并降低能耗。
知存科技作为存算一体商业化的领军企业,已在市场中率先跑出。其团队早在2019年便成功流片验证存算一体深度学习芯片,2022年实现正式量产商用,截止2024年累积服务近30家客户。目前,知存科技的WTM系列芯片已广泛应用于智能物联网等场景。
不仅如此,知存科技积极推进技术全面升级探索。通过 “天才博士计划”,广纳顶尖人才,充实研发力量;大力开展技术生态建设,联合高校开展存算课程全球开源多个开发软件、工具及算法部署。
近日,WAIC2025•财联社系列活动有观点指出,以存算一体技术为代表的创新技术,正为 AI 算力发展注入全新活力。在主流 CPU、GPU 不断突破的同时,存算一体等新兴技术另辟蹊径,有望打破现有计算瓶颈。知存科技等企业的成功实践,不仅证明了该技术路线的可行性,更为行业发展树立标杆。随着技术持续迭代、生态日益完善,存算一体技术将在 AI 算力基础层扮演愈发重要的角色,助力 AI 产业迈向新高度,值得市场持续关注与期待。
