来源:证券时报网
媒体
2025-05-30 15:31:29
(原标题:华为发布准万亿模型Pangu Ultra MoE模型架构和训练细节)
人民财讯5月30日电,近日,华为在MoE模型训练领域再进一步,推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。
据悉,训练超大规模和极高稀疏性的MoE模型极具挑战,训练过程中的稳定性往往难以保障。针对这一难题,盘古团队在模型架构和训练方法上进行了创新性设计,成功地在昇腾平台上实现了准万亿MoE模型的全流程训练。
证券时报网
2025-05-31
证券时报网
2025-05-31
证券时报网
2025-05-31
证券时报网
2025-05-31
证券时报网
2025-05-31
证券时报网
2025-05-31
证券之星资讯
2025-05-30
证券之星资讯
2025-05-30
证券之星资讯
2025-05-30