一号热搜榜,为您提供最新的热搜资讯,热搜榜信息!

关于Qwen的热搜内容

阿里Qwen负责人宣布离开 卸任引发关注

阿里Qwen负责人宣布离开 卸任引发关注

出处:百家号 热度:332

阿里Qwen负责人宣布离开 卸任引发关注。3月4日凌晨,千问核心负责人林俊旸在社交平台上发文表示卸任,并告别了他所热爱的千问项目。此前,在3月2日晚间,阿里千问正式开源了四款Qwen3.5小尺寸模型系列,包括Qwen3.5-0.8B/2B/4B/9B。这些小模型发布后受到了广泛关注,甚至得到了马斯克的关注和点赞,对此林俊旸表达了感谢。同一天,阿里巴巴集团宣布将AI技术的总称和核心品牌统一为千问。

林俊旸卸任千问技术负责人 告别心爱的Qwen

林俊旸卸任千问技术负责人 告别心爱的Qwen

出处:金融界 热度:385

此次卸任消息发布前两日,千问团队刚完成两项重要动作:3月2日晚间,正式开源Qwen3.5系列4款小尺寸模型,覆盖0.8B、2B、4B、9B四种参数规模,可部署于笔记本电脑等端侧设备;同日,阿里巴巴宣布将大模型B端与C端品牌统一为“千问”,不再使用“通义千问”名称。该系列模型发布后获得特斯拉CEO马斯克关注,后者评价其“令人惊叹的智能密度”,林俊旸曾转发该互动表示感谢。

阿里巴巴开源Qwen3全系列32款MLX量化模型

阿里巴巴开源Qwen3全系列32款MLX量化模型

出处:来源:快科技 热度:560

  MLX是一个开源的机器学习框架,专为苹果芯片深度适配,MLX框架可高效地训练和部署AI大模型,被越来越多的AI开发者采用。

阿里通义千问模型Qwen3有哪些亮点 多尺寸全模态支持

阿里通义千问模型Qwen3有哪些亮点 多尺寸全模态支持

出处:潇湘晨报 热度:864

此次发布的模型中,Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B分别对应40亿、17亿和6亿参数,这类无后缀的命名方式可能表明它们为单架构稠密模型,未采用混合专家(MoE)设计,适合轻量化应用场景。而Qwen3-30B-A3B-Base则是MoE架构的基础模型,总参数300亿(30B),动态调用30亿(3B)参数处理任务。此外,Qwen3支持高达256K的上下文长度,涵盖推理与非推理任务。

新加坡AI战略转向:弃用Meta 转向Qwen开源架构

新加坡AI战略转向:弃用Meta 转向Qwen开源架构

出处:同花顺财经 热度:502

AISG于11月25日宣布推出的“Qwen-SEA-LION-v4”模型,在一项衡量东南亚语言能力的开源榜单上迅速占据首位。这一转变旨在解决一个长期痛点:此前以Meta的Llama系列为代表的开源模型在处理印尼语、泰语和马来语等区域性语言时表现不佳,严重制约了本地化AI应用的开发效率与性能。

中国AI资产的重估时机是否已至 Qwen2.5-Max引领突破_新闻频道_中华网

中国AI资产的重估时机是否已至 Qwen2.5-Max引领突破_新闻频道_中华网

出处:证券时报 热度:462

1月29日凌晨,阿里通义千问团队悄然上线的大模型Qwen2.5-Max在多个权威基准测试中展现出与全球顶级模型比肩的性能。这是继DeepSeek之后,中国AI阵营在高性能、低成本技术路线上的又一重要突破。市场人士分析称,此前过度聚焦DeepSeek,忽视了包括阿里通义在内的中国AI整体性追赶。行业媒体认为,若阿里Qwen-2.5-max的确性能超过V3,可以对其RL推理模型给予更大期待。

每日一词|冰墩墩 Bing Dwen Dwen

每日一词|冰墩墩 Bing Dwen Dwen

出处:中国日报网 热度:112

Beijing Winter Olympics organizers will increase the product offerings for the mascot Bing Dwen Dwen, a spokesman said on Sunday in response to the rising popularity of the mascot and a recent shortage of stock.

阿里云百炼宣布上线Qwen3-Coder,价格仅为Claude 4的1/3 限时五折优惠_新闻频道_中华网

阿里云百炼宣布上线Qwen3-Coder,价格仅为Claude 4的1/3 限时五折优惠_新闻频道_中华网

出处:环球网 热度:937

阿里云百炼宣布上线Qwen3-Coder,价格仅为Claude 4的1/3 限时五折优惠。阿里云百炼已上线最新AI编程大模型Qwen3-Coder API,每百万Tokens的输入和输出价格分别为4元和16元,平均价格仅为Claude 4的三分之一。此外,阿里云百炼还推出了限时五折优惠活动,用户可以以五折的价格享受128K-1M长上下文的服务。