只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

编辑:KingHZ

【导读】南加州大学团队只用9美元,就能在数学基准测试AIME 24上实现超过20%的推理性能提升,效果好得离谱!而其核心技术只需LoRA+强化学习,用极简路径实现超高性价比后训练。

只用9美元,在数学基准测试AIME 24上,实现了超过20%的推理性能提升!

来自南加州大学(University of Southern California,USC)的研究团队,基于LoRA的强化学习(RL)训练了1.5B推理模型——

这种极简的方法训练出的模型不仅能与当前最先进的强化学习推理模型相媲美,有时甚至超越它们,即便它们是基于相同底座模型构建的。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

论文链接:https://arxiv.org/abs/2504.15777

在AIME 24推理任务中,最好的新模型实现了超过20%的性能提升,达到了43%的Pass@1准确率,而训练和评估的总成本仅为9美元

在X上,19岁获得博士学位、AI初创的CEO「少年天才」Tanishq Mathew Abraham推荐了此论文,已有数万浏览。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

X用户Omar则表示:新方法令人激动,是金融科技的灯塔!完美契合金融科技的增长需求!

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

Tina:利用LoRA的微型推理模型

开源的微型推理模型Tina算法系列,结合了三大关键技术。

  1. 强大而轻量级的基础模型:所有的Tina模型都基于DeepSeek-R1-Distill-Qwen-1.5B构建而成,在极小的计算资源占用下展现出色能力。

  2. 参数高效后训练微调(Parameter-efficient post-training):在强化学习(RL)阶段,采用低秩适应(LoRA)技术,显着降低了计算成本,同时不减推理性能。实际上,与全参数微调相比,有时甚至能提升模型的推理性能!

  3. 精选的数据集:在精简而高质量的数据集上,全部Tina模型都进行后训练微调,进一步降低了整个流程的计算复杂度。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

开源推理模型时间线:开源「推理复制品」(reasonging replicas)旨在复现高级推理模型的性能

效果好得邪门!

与使用相同基础模型的SOTA模型对比,Tina模型不仅具备竞争力,有时甚至还能超越它们——

所需成本却只是它们的零头

简单来说,就是:更少的算力,带来了更高的性能

下图1展示了Tina模型最佳checkpoint和基准模型的比较结果,其中推理性能(reasoning performance)表示在AIME24/25、AMC23、MATH500、GPQA和Minerva上的平均得分。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

图1:Tina模型与基准模型的整体比较

只经过极少量的后训练,Tina模型在性能上就比基础模型提升了超过20%,并且在表现最好的checkpoint上,在AIME24基准测试中,取得了43%的Pass@1成绩。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

在六个推理任务上,Tina模型与相应的全参数训练的最先进(SOTA)模型之间的性能比较

而且,复现表现最佳Tina检查点只需花费9美元,若从头开始复现实验的全部过程,成本也仅为526美元!

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

计算成本分解,以美元($)为单位进行衡量

在多个开源推理数据集上,研究者验证了这一发现,并对学习率、LoRA的秩以及强化学习算法进行了消融实验。

总体来看,研究者发现Tina的性能在这些因素上都比较稳定,表现出较强的稳健性。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

在六个推理任务上,对Tina模型的变体进行性能评估

此外,研究者特意使用了固定的超参数,避免了超参数调优所带来的成本,并进一步减少了计算开销。

但为什么呢?

初步的猜想

那么,为什么使用LoRA+强化学习在推理任务中会如此高效且效果显着呢?

在Tina模型的计算扩展行为以及训练动态中,研究者发现了一些有趣的模式。

观察一:在LoRA模型中,训练所使用的计算量增加反而会降低模型性能,这与全参数模型的表现相反。

这一发现揭示了一个现象:更少的计算,反而能带来更好的性能」。

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

Tina模型与基线模型在推理任务上的性能比较,同时对比了它们的训练计算复杂度(以FLOPs为单位)

观察2:在训练大多数Tina模型时,研究者注意到与问题格式相关的指标(如格式奖励、答案长度),会在训练过程中发生显着变化,而这种变化在准确性相关的指标上并不明显。

有趣的是,性能最佳的checkpoint,往往出现在这些格式指标发生变化的时候

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

基于LoRA的强化学习中的阶段转

根据这些观察,研究者提出了关于基于LoRA的强化学习后训练方法有效性的假设:

Tina训练方法之所以有效且高效,是因为LoRA能够迅速调整模型,让模型适应强化学习所奖励的推理结构,同时保留基础模型的大部分原有知识。

作者介绍

王上上(Shangshang Wang)

只要9美元!LoRA+强化学习,DeepSeek 1.5B推理性能暴涨20%

王上上(Shangshang Wang),目前是南加大的计算机科学和人工智能专业一年级博士生。

在上海科技大学,他完成了计算机科学的本科和硕士学位。

他的研究兴趣包括大语言模型(LLM)推理、测试时计算效率、人工智能在科学中的应用(Ai4science)、强化学习(RL)和带约束的优化算法(例如多臂老虎机问题)。

参考资料:

https://arxiv.org/abs/2504.15777

https://shangshangwang.notion.site/tina

内容来源于网络。发布者:科技网btna,转转请注明出处:https://www.btna.cn/7046.html

(0)
科技网btna的头像科技网btna
上一篇 2025年5月2日 下午3:18
下一篇 2025年5月2日 下午3:19

相关推荐

  • 几行代码,一窥上帝造物!帝国理工开源CAX,引爆人工生命新纪元

    编辑:KingHZ 【导读】人工生命的革命来临!帝国理工的研究人员,开源了名为CAX的硬件加速工具。只需几行代码,就能复刻人工生命实验,模拟速度可提升2000倍,部分表现甚至超过了GPT-4! 人工生命研究的新纪元! 「人工生命」(artificial life,或简写为ALife),旨在模拟生命的行为、特性和演化过程,理解生命的本质,涉及涌现现象、自组织系…

    2025年4月24日
    5100
  • 杀疯了!Gemini 2.5狂飙「高尔顿板」测试,编码横扫所有OpenAI模型

    编辑:犀牛 【导读】谷歌的AI编码能力正在掀起一场风暴!在高尔顿板测试中,Gemini 2.5 Flash以惊艳表现击败OpenAI多款模型,连谷歌首席科学家Jeff Dean都为其点赞。谷歌新模型「dayhush」已在网页开发领域崭露头角,性能超越Gemini 2.5 Pro,被网友称为「AI编码的地震性突破」。 编码能力一直是顶尖模型宣传的重点。 尤其是…

    2025年4月21日
    10300
  • 大学文凭成废纸?AI暴击美国00后!他哥大退学成千万富翁,我却还要还学贷

    编辑:编辑部 ZXH 【导读】美国Z世代表示:因为ChatGPT,大学文凭已经变成一张废纸!纯属浪费时间浪费金钱。刚刚出炉的调查显示,同意此观点的年轻人已经达到了49%。而哥大退学网红等00后创业明星的故事,更是让美国人对大学教育完全祛魅了。 摊牌了,不装了,美国的Z时代已经对上大学彻底不耐烦了。 现在,他们喊出这样的宣言:有了ChatGPT,大学文凭已经彻…

    2025年4月23日
    5800
  • 老公和ChatGPT聊出精神病,她光速离婚

    编辑:KingHZ 【导读】只因沉迷于ChatGPT的对话,一位用户竟然陷入「螺旋星之子」的妄想,最终情感破裂;还有程序员为了编程任务而使用ChatGPT,诱发精神病。AI对人类的情感影响,可谓是迷雾重重…… 类似ChatGPT这样的AI应用,总是给人带来好的影响吗? Reddit网友分享了AI如何导致他们的爱人陷入妄想。 这些妄想常常混杂着精神狂热和超自然…

    2025年5月8日
    4400
  • 世界,您好!

    欢迎使用 WordPress。这是您的第一篇文章。编辑或删除它,然后开始写作吧!

    智能 2025年3月13日
    31410

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信