
谷歌发布Gemmar 4,击败规模超自身13倍的Qwen3.5
在本周四晚间,谷歌发布了其最新的模型系列 Gemma 4,这一系列被认为是当前开源领域中最强大的。新的 Gemma 系列在 Arena AI 排行榜上获得第三名的位置,并且超过了参数量是它五倍多的大规模模型。此外,Gemma 4 使用了 Apache 2.0 开源许可证,这意味着它可以完全用于商业用途。Google DeepMind 最近开发的 Gemma 4 是一个多模态模型系列,专门处理文本和
共找到 8 篇相关文章

在本周四晚间,谷歌发布了其最新的模型系列 Gemma 4,这一系列被认为是当前开源领域中最强大的。新的 Gemma 系列在 Arena AI 排行榜上获得第三名的位置,并且超过了参数量是它五倍多的大规模模型。此外,Gemma 4 使用了 Apache 2.0 开源许可证,这意味着它可以完全用于商业用途。Google DeepMind 最近开发的 Gemma 4 是一个多模态模型系列,专门处理文本和

头图由AI生成近日,一家由北京大学背景的团队创立的人工智能编程初创公司——硅心科技,发布了其最新研发的轻量级模型aiX-apply-4B。这款模型仅需4B的参数量和256K的上下文支持,能够在消费级显卡上进行部署。该模型专为企业级代码修改任务设计,能够自动识别修改意图,精确定位目标代码区域,并保持原有代码格式和上下文结构的完整,将修改后的代码无缝融入原始文件。在基准测试中,aiX-apply模型在

3月19日,小米在SU7发布会上公布了其在AI大模型领域的最新研发成果和关键数据。小米公司创始人雷军表示,公司正在加大硬核科技领域的投入,计划在未来三年内至少投入600亿元人民币用于AI研发,而今年的支出已超过160亿元。在大模型基座方面,小米推出了面向智能体时代的旗舰大模型。这款模型采用了总参数量达1万亿的MoE架构,激活参数为420亿,并运用了小米自主研发的混合注意力机制,支持百万级的上下文长

真是让人惊讶!乐天集团在3月17日发布了Rakuten AI 3.0,称其为日本国内性能最为卓越的大型AI模型之一,拥有约7000亿的参数量,并且专门针对日语进行了优化,采用Apache 2.0开源许可,并获得了日本经济产业省和NEDO的GENIAC项目资金支持。然而,在发布仅仅12小时之后,这款备受瞩目的AI模型就曝出了重大问题。当天下午,有人查看了Rakuten AI 3.0在Hugging

吴嘉赟博士就读于卡内基梅隆大学(CMU)机器学习系,专注于大语言模型评估和后训练技术的研究。大语言模型在关键领域的应用受到幻觉问题的困扰。最近一项研究提出了一种新的行为校准强化学习方法,旨在解决这一难题。该论文详细探讨了如何通过调整奖励函数来改进LLM的表现。经过特定训练后,一个参数量仅为40亿的小型模型在幻觉抑制方面超越了GPT-5等顶级大模型。图1展示了模型回答数学问题时置信度标注的实例。每一

阿里巴巴在春节期间推出了Qwen 3.5系列大模型,其中包括多种不同尺寸的小型版本,如0.8B、2B、4B和9B。对于熟悉该系列的用户来说,小巧且性能强大的AI模型尤为吸引人。本地部署成为一种趋势,而此次发布的Qwen 3.5系列中,即使是较小的模型也表现出色,尤其是9B版本的性能几乎与gpt-oss-120B持平。最近有消息显示,N8 Programs已经对4B版进行了实际测试,并验证了官方声称

近年来,基于大模型的文本检索技术取得了显著进展,最新的领先技术(SOTA)中,LLM Embedding Model 的参数量通常超过70亿。虽然相关性搜索性能得到了提升,但部署成本也随之大幅增加。众所周知,LLM Embedding Model 使用对称双塔架构,其中查询端和文档端常常共享同一完整的大型语言模型(LLM)。然而,一个长期被忽视的问题是:在

智东西作者 陈骏达编辑 漠影当大模型在推理、编程等领域不断刷新纪录时,一个新的问题也随之浮现:如何在提升模型能力的同时,控制算力和资源消耗?近期,蚂蚁集团inclusionAI团队发布了一项重要成果——百灵大模型家族的新一代开源万亿参数模型Ling-2.5-1T(即时模型)与Ring-2.5-1T(思考模型)。两款模型并非单纯通过增加参数量取胜,而是依靠共