News information
【kaiyun科技消息】近期,科技界最为热议的词汇非“DeepSeek”莫属。据悉,DeepSeek-R1在数学、代码自然语言推理等领域的表现,已经能够与OpenAI的GPT-1正式版相媲美,其火爆程度席卷全球。而最近,DeepSeek的研究员在线透露了一个消息:R1的训练过程仅仅耗时两到三周,研究员们在春节期间也未停歇,继续全力推进研究,接下来还有大招。
几天前,Daya Guo发布了一条推文,分享了他春节期间最为兴奋的事情——亲眼目睹了R1-Zero模型性能曲线的“持续增长”,并深切感受到了强化学习(RL)的强大力量。在回复网友关于DeepSeek R1的问题及公司后续计划时,Daya Guo透露,DeepSeek的R1只是一个开始,内部研究正在快速推进。他强调,研究员们在春节期间一直在加班加点地推进研究。
对于网友提问的“如果不是秘密的话,这次RL训练跑了多久?”Daya Guo回应称,660B参数的R1-Zero和R1是在V3版本发布后才开始训练的,整个过程大约花费了2-3周的时间。此外,他还透露团队正在尝试将R1应用于形式化证明环境,并希望尽快向社区发布更加优秀的模型。从Daya Guo的言辞中不难看出,他们在这方面已经取得了进展,未来或将有更多重量级的模型问世,令人充满期待。
版权所有,未经许可不得转载
-好博app-