Kunlun Wanwei推出了Skywork

Home在4月13日报道说,Kunlun Wanwei今天宣布,天和团队是根据中国推理Skywork-O1模型进行了优化的,并推出了该系列的新升级后的Skywork-OR1(Open Choliceer 1)模型。据报道,这一系列模型在相同的参数量表下达到了行业绩效的领先优势,这进一步破坏了大型模型逻辑理解和复杂任务解决的能力的瓶颈。同时,SkyWork-or1完全开放且免费使用,这将以完全开放的资源形式返回开发人员社区。该开放资源涵盖了三个高性能模型,包括:Skywork-Or1-Math-7B:专门用于数学领域的特殊模型,并且具有强大的代码功能。 SkyWork-Or1-7b-preiview:通用模型NA结合了数学和代码功能,并且具有多功能和专业性。 Skywork-Or1-32b-preview:旗舰版本更高的复杂任务和更强大的推理能力。 Kunlun Wanwei正式表示,SkyWork-O1系列已发布在开放工业透明度的最高方法上:全面的开源量,培训数据集和完整的培训代码,所有资源都上传到Github和Hugingface平台,并拥抱了拥抱的支持平台。该技术支持博客已在概念平台上发布,该平台详细说明了数据处理过程,培训方法和基本技术发现,为社区提供了完全实用的实用参考。它是从Kunlun Wanweithat在家里发现的,Skywork-O1-7B和Skywork-O1-32B的功能仍在改善。这两个模型的官方版本将在两周内发布,并将启动更加系统的技术报告,以进一步分享他们对培训模型培训的经验和洞察力。天窗K-OR1系列开源地址:Kunlun Wanwei Tiangong团队更多开放的资源项目:在审查方面,SkyWork-Or1系列模型介绍AVG@K作为基本分析的指标,以衡量平均模型性能成功地解决K.在K.进行尝试时,与传统相比,与传统相比,它至少是成功的,因此在“ avg@k”中更加谨慎地完成了一般的绩效。实用价值。在数学推理活动中:一般的SkyWork-OR1-7B-preiview模型和SkyWork-O1-32b-previews在AIME24和AIME25数据集中都在相同的参数大小中实现了最佳性能,显示出强大的数学合理能力。 AIME24和AIME2在AIME24中还提供了用于SkyWork-Or1-Math-7b深度优化的数学场景的特殊模型,分别在69.8和52.3中获得了5个标记,该标记的具有大于当前的7B级型号,该模型具有FU。Lly证明了其对高级数学活动的专业利益。 SkyWork-OR1-32B-Preiview在所有基准测试中都实现了QWQ-32B,实际上在更困难的AIE25中在相同的R1上实现了QWQ-32B。在竞争编程的工作中:Heartbreakskywork-O1-7b-preiview模型和Skywork-O1-32b-previews在LiveCodeBench数据集上都在相同的参数量表上实现了最佳性能。 Skywork-Or1-32b-preiview表现出色。代码和解决问题功能的生成接近DeepSeek-R1(参数刻度最高为671b)。它在完全压缩模型的大小的同时,它实现了巨大的成本效益,这完全反映了天和团队培训方法的先进性质。其中,Skywork-or1-Math-7b表现出色。作为专门用于数学推理能力的7B参数模型,它通过多阶段的GRO阶段训练在复杂的数学问题中实现了出色的性能,并且具有强大的概括代码任务的能力。这下图是AIE24模型训练准确性的曲线,在多阶段训练中显然提出了稳定的性能轨迹。在AIME24和AIME24中,最终的SkyWork-O1-Math-7b型号分别超过OpenAI-O3-Mini(低),达到了69.8%和52.3%,以达到当前的SOTA性能大小。值得注意的是,尽管该模型在培训过程中没有专门针对代码功能进行了特殊优化,但LiveCodeBench从37.6%增加到代码审查基准的43.6%,与基线模型相比,这是一个重大改进,这也表明我们的培训技术具有很棒的一般域。