
Nature重磅:AI写的论文,在顶会同行评审击败55%人类,单篇15美元
新智元报道【新智元导读】刚刚,Nature盖章AI独立科研时代!全新Scaling Law显现,人类死守的学术铁王座,正发生不可逆的转移。一篇长达数十页的学术论文,在人类设定研究主题和实验边界后,系统自动完成了从实验到写作的大部分流程。从论文正文、实验代码、图表和投稿稿件,主要由系统端到端自动生成。它被投递到顶尖机器学习会议ICLR 2025某workshop的同行评审流程中,三位匿名审稿人不知道
科技3 阅读
共找到 3 篇相关文章

新智元报道【新智元导读】刚刚,Nature盖章AI独立科研时代!全新Scaling Law显现,人类死守的学术铁王座,正发生不可逆的转移。一篇长达数十页的学术论文,在人类设定研究主题和实验边界后,系统自动完成了从实验到写作的大部分流程。从论文正文、实验代码、图表和投稿稿件,主要由系统端到端自动生成。它被投递到顶尖机器学习会议ICLR 2025某workshop的同行评审流程中,三位匿名审稿人不知道

新智元报道本文探讨了如何在给定硬件约束条件下使大语言模型达到最优性能的研究成果,并揭示了软硬协同设计的重要性。研究表明,传统的堆算力方法并不足以充分发挥芯片的潜力,优化架构才是关键所在。马赫100自研芯片与星环OS操作系统、MindVLA智能驾驶大模型共同构成了理想汽车完整的技术栈,并通过软硬协同设计实现高效能利用。在传统模式中,开发团队通常需要花费数月时间才能为新硬件找到最优的架构方案。然而,借

最近的研究表明,通过改进模型架构可以显著提升大型语言模型的性能和效率。本文介绍了一项由交通大学团队开发的新技术——JTok-M。JTok-M是一种创新性的方法,它利用token-indexed参数来扩展模型容量,从而提高计算资源的有效利用率。传统的Scaling Law主要关注于两个方面:增加模型参数的数量(N)和使用更多的训练数据(D)。然而,这种方法在实际应用中面临着诸多挑战,如成本高昂、效率