品玩10月17日讯,华为昇腾生态团队正式在GitCode社区开源openPangu-Ultra-MoE-718B-V1.1大模型,同步释出Int8量化版本,为开发者提供高性价比的大规模混合专家(MoE)模型选择。
该模型总参数达718B,激活参数量39B,基于昇腾NPU全栈软硬件训练而成,在Agent工具调用、知识推理等领域能力突出,且具备自适应快慢思考切换功能,推理效率较前代提升显著。其部署需Atlas 800T A2硬件(≥32卡),软件支持openEuler系统与CANN 8.1.RC1等环境,提供裸机安装与Docker容器两种部署方式,适配Vllm_ascend推理框架。
开发者可通过官方仓库获取模型与部署指南,此次开源进一步完善了昇腾AI生态,为企业级大模型应用落地提供核心技术支撑。
