搜索: "推理任务"

共找到 5 篇相关文章

基于隐空间动力学的大模型RL探索新视角——寻求平衡之道

基于隐空间动力学的大模型RL探索新视角——寻求平衡之道

强化学习已成为推动大型模型性能飞跃的关键技术手段。从OpenAI的o3、DeepSeek-R1到Gemini 3,这些前沿模型通过不断微调强化训练来提升解决复杂推理任务的能力。然而,在这一过程中也逐渐暴露出一个问题:随着训练的深入,策略分布趋向集中,探索能力随之减弱,最终导致优化欠收敛和性能瓶颈。这种现象从根本上说是由于在强化学习中探索与利用之间的不平衡造成的,并且在稀疏奖励的可验证奖励强化学习(

科技3 阅读
复旦北大携手美团创新TDAR技术:突破区块扩散速度与精度难题

复旦北大携手美团创新TDAR技术:突破区块扩散速度与精度难题

目前,测试时扩展已成为提升模型推断能力的重要途径。在这个领域内,块扩散语言模型(BDLMs)因为其独特的并行解码特性,被认为是自回归模型效率的强有力竞争者。然而,现有的 BDLMs 在处理长链推理任务时面临一种困境:它们必须在速度和准确性之间做出选择。大块解码虽然速度快,但在复杂情境下容易出错;小块则能保证准确度,但会牺牲解码效率,失去并行计算的优势。此外,当前的解码策略(例如固定置信度)无法应对

科技2 阅读
过多的AI智能体并不意味着更强:信息冗余限制了大规模语言模型代理的发展

过多的AI智能体并不意味着更强:信息冗余限制了大规模语言模型代理的发展

近年来,基于大语言模型的多智能体系统(MAS)在复杂推理任务中得到了广泛应用。传统方法通常让多个独立生成决策的代理通过投票或辩论等方式进行聚合,从而提高算术、常识推断及专业问答等领域的准确率。当test-time compute成为常见的性能提升策略时,一个自然而然的问题随之产生:随着agent数量的增加,MAS是否能够持续增强其能力?直观上来看,这种想法似乎是合理的:类似ensemble或sel

科技3 阅读
去中心化GPU网络在人工智能发展中扮演什么角色?

去中心化GPU网络在人工智能发展中扮演什么角色?

去中心化的GPU网络定位于为运行AI工作负载提供低成本解决方案,而最新的模型训练依然主要在大型数据中心内进行。在前沿的AI训练中,构建最大的、最先进的系统需要大量高性能GPU协同作业。这种级别的协作对去中心化网络来说是一个挑战,因为互联网上的延迟和可靠性无法与集中式数据中心中的硬件相媲美。大多数生产环境下的AI工作负载不同于大规模模型的训练需求,因此为去中心化的网络提供了更多执行推理任务和其他日常

区块链6 阅读
大语言模型的推理能力受到质疑:系统性研究揭示结构性失败原因

大语言模型的推理能力受到质疑:系统性研究揭示结构性失败原因

过去两年间,大型语言模型在推理领域的进步显著。从数学与编程生成到解决复杂的逻辑和科学问题,这些模型不断刷新基准测试的记录。随着“推理模型”概念的兴起,越来越多的研究开始将推理能力视为通向通用人工智能的关键标志。在能力迅速提升的同时,一个更为基础的问题逐渐显现:当模型在执行推理任务时出现错误,这些失误是随机波动还是表明了深层次的设计缺陷?近期发表于 TMLR 的论文《大型语言模型推理失败》对该问题进

科技10 阅读