资讯
4 天
睡前伴读 on MSN华为盘古到底有没有抄袭阿里Qwen?看完这篇技术分析你就知道了除此之外,HonestAGI还发现盘古大模型官方在GitCode中发布的代码中,还异常地包含了Qwen ...
日前,网间有传闻称,近日,一项发布于 GitHub 与 arXiv 的研究引发业界热议。华为推出的盘古大模型 (Pangu Pro MoE)被发现与阿里巴巴达摩院发布的通义千问 Qwen-2.5 14B ...
华为的AI部门否认其Pangu Pro Moe模型复制了阿里巴巴的Qwen 2.5-14b。 该指控来自一个名为Honestagi的小组的GitHub论文。 华为说,它的模型是使用自己的上升芯片从头开始构建的,并遵循了所有开源许可证要求。
5 天
芯智讯 on MSN华为盘古大模型“抄袭”阿里Qwen?官方回应2025年6月30日,华为正式宣布开源盘古7B参数的稠密模型、盘古Pro MoE 72B混合专家模型和基于昇腾的模型推理技术。随后一项由@HonestAGI 发布于GitHub的针对盘古大模型的研究引发业界热议,该研究的作者认为,华为推 ...
6 天on MSN
近期,网络上流传着一则消息,引起了人工智能领域的广泛关注。传闻指出,华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴达摩院公布的通义千问 Qwen-2.5 14B 模型在参数结构上存在高度相似性。这一说法伴随着一些疑似证据一同出现,迅速在业界引发了热议。
HonestAGI 通过测试比较称,Pangu Pro MoE模型与Qwen-2.5 14B模型在注意力参数分布上的平均相关性高达0.927,远超其他模型对比的正常范围(业内同类模型 ...
作者|沐风来源|AI先锋官近日,华为宣布开源其盘古大模型核心组件(PanguProMoE),包括70亿参数稠密模型和720亿参数的混合专家模型,并高调宣称“昇腾生态迈出关键一步”。但谁也没料到,就在4天后,来自GitHub用户@HonestAGI发布的一份技术报告,将华为盘古大模型推入了巨大的争议漩涡。该研究团队通过“LLM指纹技术”分 ...
HonestAGI 通过测试比较称,Pangu Pro MoE模型与Qwen-2.5 14B模型在注意力参数分布上的平均相关性高达0.927,远超其他模型对比的正常范围(业内同类模型 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果