资讯
今年已经过去了一半,突然心血来潮,来更新一期「2025 年上半年,我最推荐的 AI 清单」了。 综合我半年使用的个人看法,不覆盖所有的产品,凭自己印象,直接码出这篇文章。 实在没记起来的好产品,也就不算“我的上半年推荐”了,还请包容。
其中,诺亚方舟实验室核心强调了两点:第一,盘古 Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练(即续训)而来,并且其在架构设计(如创新性的MoGE架构)和技术特性上有关键创新; ...
作者|沐风来源|AI先锋官近日,华为宣布开源其盘古大模型核心组件(PanguProMoE),包括70亿参数稠密模型和720亿参数的混合专家模型,并高调宣称“昇腾生态迈出关键一步”。但谁也没料到,就在4天后,来自GitHub用户@HonestAGI发布的一份技术报告,将华为盘古大模型推入了巨大的争议漩涡。该研究团队通过“LLM指纹技术”分 ...
在多个 权威 基准测试中,HumanOmniV2展现了卓越性能。据公开信息显示,该模型在 Daily-Omni 数据集上的准确率达到 58.47% ,在 WorldSense 数据集上达到 47.1% ,而在阿里巴巴自研的 IntentBench 测试中更是取得了 69.33% 的优异成绩。这些数据表明,HumanOmniV2在处理日常对话、复杂场景感知以及用户意图理解方面具有显著优势。
华为盘古团队的回应中,一个细节值得玩味:他们提到“参考了业界开源实践”,但未具体说明哪些实践。这种模糊表述让外界难以判断其行为的边界。而阿里的沉默,则被解读为一种战术性回避,避免卷入公开论战。
2025年上半年,196个超10万元的DeepSeek政企项目累计预算超11亿元,展现出国产大模型强劲的落地势头。项目虽以数十万元、百万元级为主,但医疗、教育、政务领域已成需求高地,广东、川渝等地部署积极,3月爆火后需求集中释放。
除此之外,HonestAGI还发现盘古大模型官方在GitCode中发布的代码中,还异常地包含了Qwen ...
近期,科技界围绕华为诺亚方舟实验室发布的盘古Pro MoE开源模型展开了一场热烈讨论。这一模型拥有720亿参数,采用混合专家(MoE)架构,专为昇腾硬件平台设计。随后,业界出现了一项对比分析,指出盘古Pro MoE与阿里巴巴的通义千问Qwen-2.5 ...
11 天on MSN
IT之家 6 月 27 日消息,阿里云通义千问刚刚发文,宣布推出最新的 Qwen VLo—— 一个多模态统一理解与生成模型,用户可以通过 Qwen Chat(chat.qwen.ai)进行体验。
阿里巴巴董事会主席蔡崇信坦言公司曾“迷失方向”,如今全力押注AI。面对DeepSeek的竞争压力,阿里工程师春节不休,加速推出Qwen系列模型。蔡崇信表示开源Qwen是为了推动AI普及,反哺云计算业务。#阿里巴巴AI战略# #Qwen开源模型# ...
Qwen系列的开源也将为阿里巴巴的云计算业务发展提供有力支撑。 在AI技术日新月异的今天,阿里巴巴的这一系列举措无疑为行业树立了新的标杆。 通过不断投入与创新,阿里巴巴正努力缩小与行业领先者的差距,并致力于成为AI领域的佼佼者。
“欧洲的OpenAI”Mistral AI终于发布了首款推理模型——Magistral。 然而再一次遭到网友质疑:怎么又不跟最新版Qwen和DeepSeek R1 0528对比? (此前该公司 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果