资讯

除此之外,HonestAGI还发现盘古大模型官方在GitCode中发布的代码中,还异常地包含了Qwen ...
华为盘古团队的回应中,一个细节值得玩味:他们提到“参考了业界开源实践”,但未具体说明哪些实践。这种模糊表述让外界难以判断其行为的边界。而阿里的沉默,则被解读为一种战术性回避,避免卷入公开论战。
作者|沐风来源|AI先锋官近日,华为宣布开源其盘古大模型核心组件(PanguProMoE),包括70亿参数稠密模型和720亿参数的混合专家模型,并高调宣称“昇腾生态迈出关键一步”。但谁也没料到,就在4天后,来自GitHub用户@HonestAGI发布的一份技术报告,将华为盘古大模型推入了巨大的争议漩涡。该研究团队通过“LLM指纹技术”分 ...
近日,开源平台GitHub一项研究称,华为盘古大模型与阿里通义千问Qwen-2.5 ...
其中,诺亚方舟实验室核心强调了两点:第一,盘古 Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练(即续训)而来,并且其在架构设计(如创新性的MoGE架构)和技术特性上有关键创新; ...
人民网财经频道 on MSN4 小时
北京超算:14年筑牢“算力基座”
“在人工智能大模型迅速发展的今天,算力成为了不可或缺的血液。”在2025全球数字经济大会数字经济产业国际交流合作体验区,北京超级云计算中心(以下简称“北京超算”)CTO甄亚楠表示,北京超算目前正在为用户精准匹配算力资源,构建更加开放、高效和灵活的算力 ...
7月5日,针对盘古ProMoE模型被质疑套壳阿里通义千问Qwen-2.5的争议,华为诺亚方舟实验室发布声明称,该模型是基于昇腾硬件平台开发、训练的基础大模型,非基于其他厂商模型增量训练,并强调其创新了全球首个面向昇腾硬件的分组混合专家(MoGE)架构,解决分布式训练负载均衡难题,提升训练效率。
这项由阿里巴巴Qwen团队的王丙海、林润吉等研究人员领导的开创性研究于2025年5月发表,题为"WorldPM: Scaling Human Preference ...
针对这一空白,OCR-Reasoning基准应运而生,其核心亮点主要是:填补了OCR场景下复杂推理能力评估的空白;定义了系统化的评估流程,划分出六大推理能力,帮助研究者更好的理解模型在某方面能力的缺陷;为多模态推理模型的研发与优化提供了关键标尺和方向 ...
在多个 权威 基准测试中,HumanOmniV2展现了卓越性能。据公开信息显示,该模型在 Daily-Omni 数据集上的准确率达到 58.47% ,在 WorldSense 数据集上达到 47.1% ,而在阿里巴巴自研的 IntentBench 测试中更是取得了 69.33% 的优异成绩。这些数据表明,HumanOmniV2在处理日常对话、复杂场景感知以及用户意图理解方面具有显著优势。
近期,科技界掀起了一场关于大型语言模型相似性的讨论。传闻指出,华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴达摩院发布的通义千问Qwen-2.5 14B模型在参数结构上存在高度一致性,这一说法迅速在网络上发酵,并伴随有相关证据截图的出现 ...
近日,科技圈内掀起了一场关于大型语言模型相似性的热议风波。事件的起因是,一项在GitHub和arXiv平台上发布的研究报告指出,华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴达摩院发布的通义千问Qwen-2.5 ...