资讯

除此之外,HonestAGI还发现盘古大模型官方在GitCode中发布的代码中,还异常地包含了Qwen ...
华为盘古团队的回应中,一个细节值得玩味:他们提到“参考了业界开源实践”,但未具体说明哪些实践。这种模糊表述让外界难以判断其行为的边界。而阿里的沉默,则被解读为一种战术性回避,避免卷入公开论战。
据《财经》报道,多家科技企业已关注此事进展,未来或推动建立更清晰的开源协议细则。华为云数据显示,盘古大模型已在30余个行业、400余个场景落地,此次争议或加速行业对开源协作规范的重视。
2025年6月30日,华为正式宣布开源盘古7B参数的稠密模型、盘古Pro MoE 72B混合专家模型和基于昇腾的模型推理技术。随后一项由@HonestAGI 发布于GitHub的针对盘古大模型的研究引发业界热议,该研究的作者认为,华为推出的盘古大模型 ...
作者|沐风来源|AI先锋官近日,华为宣布开源其盘古大模型核心组件(PanguProMoE),包括70亿参数稠密模型和720亿参数的混合专家模型,并高调宣称“昇腾生态迈出关键一步”。但谁也没料到,就在4天后,来自GitHub用户@HonestAGI发布的一份技术报告,将华为盘古大模型推入了巨大的争议漩涡。该研究团队通过“LLM指纹技术”分 ...
近日,开源平台GitHub一项研究称,华为盘古大模型与阿里通义千问Qwen-2.5 ...
近期,科技界围绕华为诺亚方舟实验室发布的盘古Pro MoE开源模型展开了一场热烈讨论。这一模型拥有720亿参数,采用混合专家(MoE)架构,专为昇腾硬件平台设计。随后,业界出现了一项对比分析,指出盘古Pro MoE与阿里巴巴的通义千问Qwen-2.5 ...
目前模型人人免费可玩(当前为预览版),具体请认准Qwen3-235B-A22B,直接在首页输入框提需求就行。 根据Qwen介绍的亮点,即“强细节捕捉”和“一句话编辑图像”,我们着重在测试中考查了Qwen-VLo的 各种编辑能力 。
其中,诺亚方舟实验室核心强调了两点:第一,盘古 Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练(即续训)而来,并且其在架构设计(如创新性的MoGE架构)和技术特性上有关键创新; ...
人民网财经频道 on MSN4 小时
北京超算:14年筑牢“算力基座”
“在人工智能大模型迅速发展的今天,算力成为了不可或缺的血液。”在2025全球数字经济大会数字经济产业国际交流合作体验区,北京超级云计算中心(以下简称“北京超算”)CTO甄亚楠表示,北京超算目前正在为用户精准匹配算力资源,构建更加开放、高效和灵活的算力 ...
7月5日,针对盘古ProMoE模型被质疑套壳阿里通义千问Qwen-2.5的争议,华为诺亚方舟实验室发布声明称,该模型是基于昇腾硬件平台开发、训练的基础大模型,非基于其他厂商模型增量训练,并强调其创新了全球首个面向昇腾硬件的分组混合专家(MoGE)架构,解决分布式训练负载均衡难题,提升训练效率。