国产欧美精品一区二区三区_国产黄色电影_久久极品_欧美日韩专区_成人国产免费视频_一级片大片

幣圈網(wǎng)

最強(qiáng)32B中文推理大模型!DeepSeek-R1 1/20參數(shù)量 還免費(fèi)

千億參數(shù)內(nèi)最強(qiáng)推理大模型,剛剛易主了。

32B——DeepSeek-R1的1/20參數(shù)量;免費(fèi)商用;全面開源——模型權(quán)重、訓(xùn)練數(shù)據(jù)集和完整訓(xùn)練代碼,都開源了。

這就是剛剛亮相的Skywork-OR1 (Open Reasoner 1)系列模型——

通用32B尺寸(Skywork-OR1-32B)完全超越同規(guī)模阿里QwQ-32B;代碼生成媲美DeepSeek-R1,但性價(jià)比更高。


△Skywork-OR1-32B-Preview

數(shù)學(xué)推理方面:7B、32B都達(dá)到同規(guī)模最優(yōu),數(shù)學(xué)專項(xiàng)模型(Skywork-OR1-Math-7B)表現(xiàn)更突出。

Skywork,天工是也,來自AIGC巨頭玩家昆侖萬維。

Skywork-OR1系列模型現(xiàn)已全面開源,模型權(quán)重、訓(xùn)練數(shù)據(jù)集和完整訓(xùn)練代碼,所有資源均已上傳至GitHub和Huggingface平臺。配套的技術(shù)博客已發(fā)布于Notion平臺,詳細(xì)闡述了數(shù)據(jù)處理流程、訓(xùn)練方法和關(guān)鍵技術(shù)發(fā)現(xiàn),為社區(qū)提供了完全可復(fù)現(xiàn)的實(shí)踐參考。

Skywork-OR1系列開源地址:https://github.com/SkyworkAI/Skywork-OR1(包含模型,代碼,數(shù)據(jù))

昆侖萬維天工團(tuán)隊(duì)更多開源項(xiàng)目:https://huggingface.co/Skywork

目前Skywork-OR1-7B和Skywork-OR1-32B的能力還在持續(xù)提升,在兩周內(nèi)會發(fā)布兩個模型的正式版本,同時(shí)也會推出更為系統(tǒng)詳盡的技術(shù)報(bào)告,分享推理模型訓(xùn)練中的經(jīng)驗(yàn)與洞察。

3款模型全量開源

Skywork-OR1 (Open Reasoner 1) 系列開源共有3款模型:

Skywork-OR1-Math-7B:專注數(shù)學(xué)領(lǐng)域的專項(xiàng)模型,同時(shí)也具有較強(qiáng)的代碼能力。

Skywork-OR1-7B-Preview:融合數(shù)學(xué)與代碼能力,兼顧通用與專業(yè)性。

Skywork-OR1-32B-Preview:面向高復(fù)雜度任務(wù)、具備更強(qiáng)推理能力的旗艦版本。

團(tuán)隊(duì)對比了Skywork-OR1系列在AIME24、AIME25、LiveCodeBench上的表現(xiàn)。

AIME24/25是美國數(shù)學(xué)邀請賽基準(zhǔn)測試,LiveCodeBench主要評估大語言模型代碼生成和編程能力。

在評測方面,Skywork-OR1系列模型引入avg@k作為核心評估指標(biāo),用于衡量模型在進(jìn)行k次嘗試時(shí)成功解決問題的平均表現(xiàn)。

傳統(tǒng)的pass@k指標(biāo)僅關(guān)注“至少一次成功”,相對而言avg@k更關(guān)注模型的穩(wěn)定性和整體推理能力,為模型實(shí)際落地提供更全面真實(shí)的參考。

在數(shù)學(xué)方面,通用模型Skywork-OR1-7B-Preview和Skywork-OR1-32B-Preview在AIME24與AIME25數(shù)據(jù)集上均實(shí)現(xiàn)了同參數(shù)規(guī)模下最優(yōu)表現(xiàn),32B整體表現(xiàn)基本與DeepSeek-R1齊平。

編程方面,通用模型Skywork-OR1-7B-Preview與Skywork-OR1-32B-Preview在LiveCodeBench上均取得了同等參數(shù)規(guī)模下的最優(yōu)性能。

整體而言,Skywork-OR1-32B-Preview甚至與DeepSeek-R1的差距非常微小。要知道后者的參數(shù)規(guī)模是前者的20倍,這意味著Skywork-OR1能帶來更具性價(jià)比的性能表現(xiàn)。

由此綜合來看,Skywork-OR1-32B-Preview成為當(dāng)前同規(guī)模最強(qiáng)中文推理模型,也是現(xiàn)役支持免費(fèi)商用的模型中最強(qiáng)且最具性價(jià)比的成員之一。

此外,數(shù)學(xué)專項(xiàng)模型Skywork-OR1-Math-7B在AIME24/25的表現(xiàn)遠(yuǎn)超當(dāng)前主流7B級模型,甚至接近蒸餾版Deepseek-32B模型同等水平(DeepSeek-R1-Distill-Qwen-32B)。

如下為該模型在AIME24上的訓(xùn)練準(zhǔn)確率曲線。

最終模型在AIME24和AIME25上分別達(dá)到69.8%和52.3%,超越了OpenAI-o3-mini (low),達(dá)到了當(dāng)前尺寸SOTA性能。與此同時(shí),該專項(xiàng)模型在代碼領(lǐng)域也表現(xiàn)出了較好的泛化性(訓(xùn)練后,Livecodebench從37.6%提升到43.6%)。


△OpenAI-o3-mini(low)的AIME24分?jǐn)?shù)來自官網(wǎng),AIME25分?jǐn)?shù)來自評測網(wǎng)站https://matharena.ai/

去年11月,昆侖萬維發(fā)布國內(nèi)首款中文復(fù)雜推理模型Skywork-o1,Skywork-OR1系列模型正是在此基礎(chǔ)上迭代而來。

不同于簡單復(fù)刻OpenAI o1模型,Skywork-o1內(nèi)生出了思考、計(jì)劃、反思等能力。它共包括三款模型Skywork-o1-Open、SI’m kywork-o1-Lite和Skywork-o1-Preview,分別適用于不同的應(yīng)用場景,可以滿足開源到高性能推理的多樣化需求。

Skywork-OR1系列站在Skywork-o1的肩膀上有了更強(qiáng)基座,但想要如此強(qiáng)大,也離不開一系列先進(jìn)技術(shù)加持。

背后秘訣:AGI技術(shù)洞藏,訓(xùn)練效率提升50%

Skywork-OR1在數(shù)據(jù)處理、訓(xùn)練策略等方面都做了進(jìn)一步創(chuàng)新。

首先在數(shù)據(jù)方面。

為提升模型在數(shù)學(xué)和代碼方面能力,Skywork-OR1構(gòu)建了一個高質(zhì)量數(shù)學(xué)和代碼數(shù)據(jù)集。

團(tuán)隊(duì)設(shè)計(jì)了三個標(biāo)準(zhǔn)進(jìn)行數(shù)據(jù)篩選:可驗(yàn)證性(Verifiable)、正確性(Correct)與挑戰(zhàn)性(Challenging),剔除無法自動驗(yàn)證的證明類題目、有誤題目、和缺少unit test的代碼問題。

數(shù)學(xué)領(lǐng)域共計(jì)收集11萬道題目,主要依賴NuminaMath-1.5(含約89.6萬題),選用如AIME和Olympiads等較難子集,并補(bǔ)充了如DeepScaleR、Omni-MATH、AIME 1983-2023難題來源。

代碼領(lǐng)域收集了13.7k條高質(zhì)量代碼問題,主要以LeetCode和TACO數(shù)據(jù)為主,保留了單元測試完整、驗(yàn)證通過的問題,并進(jìn)行向量級語義去重。

在數(shù)據(jù)過濾部分,團(tuán)隊(duì)對每道題進(jìn)行了多輪采樣并驗(yàn)證答案,以避免“全對”或“全錯”現(xiàn)象對策略學(xué)習(xí)無效——模型生成全部錯誤,無法提供有效的學(xué)習(xí)信號;“全對”意味著模型已完全掌握,繼續(xù)學(xué)習(xí)會浪費(fèi)計(jì)算資源。

并通過人類審核結(jié)合LLM自動判題機(jī)制,對語義不清、信息不全、格式錯誤或含有無關(guān)內(nèi)容的項(xiàng)目進(jìn)行清理。使用LLM-as-a-Judge剔除掉約1-2K道質(zhì)量不達(dá)標(biāo)的數(shù)學(xué)題。

其次在強(qiáng)化學(xué)習(xí)部分,Skywork-OR1使用GRPO(Group Relative Policy Optimization)進(jìn)行訓(xùn)練,并引入一系列優(yōu)化策略。

在訓(xùn)練時(shí)數(shù)據(jù)優(yōu)化上,一方面采用雙重過濾策略:

離線過濾:訓(xùn)練前使用待訓(xùn)練模型評估數(shù)據(jù),剔除正確率為0或1的樣本;在線過濾:每個epoch動態(tài)移除上一輪已完全掌握的數(shù)據(jù),確保模型持續(xù)面對有挑戰(zhàn)性的內(nèi)容。

另一方面使用拒絕采樣(Rejection Sampling)進(jìn)行更精細(xì)的實(shí)時(shí)篩選,在每個訓(xùn)練步驟中動態(tài)剔除當(dāng)前訓(xùn)練步中采樣正確率為0或1的樣本。這樣可以維持policy loss、entropy loss和KL loss的合理比例,防止非policy loss比重異常增加導(dǎo)致的訓(xùn)練不穩(wěn)定。

在訓(xùn)練Pipeline優(yōu)化上主要做了兩方面的探索。

(1)多階段訓(xùn)練(Multi Stage Training):

從小窗口開始,逐步增加上下文長度(seq_len),可以促使模型在有限token內(nèi)高效完成任務(wù);隨后逐步擴(kuò)展窗口大小,迭代增加生成長度,使模型逐漸掌握更復(fù)雜的長鏈思維能力。實(shí)驗(yàn)證明,多階段訓(xùn)練能顯著縮短訓(xùn)練時(shí)間,同時(shí)完全保持模型的長度擴(kuò)展能力。

(2)截?cái)鄡?yōu)勢掩碼(Truncated Advantage Mask):

在多階段訓(xùn)練初期,由于上下文窗口限制,復(fù)雜問題的回答可能被截?cái)唷R虼藞F(tuán)隊(duì)研究了兩種處理窗口限制下截?cái)鄻颖镜牟呗訟dv-Mask Before(計(jì)算優(yōu)勢前排除截?cái)鄻颖荆┖虯dv-Mask After(計(jì)算后將截?cái)鄻颖緝?yōu)勢置零)。證明即使不屏蔽截?cái)鄻颖荆P鸵材苡行нm應(yīng)并迅速提升性能,也證明多階段訓(xùn)練框架的魯棒性。

此外,在強(qiáng)化學(xué)習(xí)訓(xùn)練中還要保障模型的探索能力。

團(tuán)隊(duì)進(jìn)行了三方面探索。

第一,高溫度采樣。采用τ=1.0(高于常見的0.6)維持更高群組內(nèi)多樣性,既保證足夠正確樣本提供學(xué)習(xí)信號,又允許模型探索更廣泛解決路徑。

第二,提升內(nèi)在訓(xùn)練多樣性。通過精細(xì)數(shù)據(jù)過濾、增加批量大小和減少數(shù)據(jù)重復(fù)使用,可以從源頭上防止模型過早優(yōu)化到單一輸出方向,同時(shí)也保持較高熵值,避免局部最優(yōu)。

第三,自適應(yīng)熵控制。只有在熵值低于閾值時(shí)才提供熵增加鼓勵,設(shè)定目標(biāo)熵值并動態(tài)調(diào)整損失系數(shù),同時(shí)最小化對正常訓(xùn)練軌跡的干擾。

最后在保障強(qiáng)化學(xué)習(xí)訓(xùn)練的穩(wěn)定性,團(tuán)隊(duì)對損失函數(shù)進(jìn)行優(yōu)化。

第一,移除KL損失。研究中發(fā)現(xiàn)即使基于高質(zhì)量SFT模型訓(xùn)練,KL損失仍限制性能提升。因此,除特定階段外,團(tuán)隊(duì)在所有公開發(fā)布的Skywork-OR1系列模型中均未使用KL損失項(xiàng),這使模型能夠更充分地探索和優(yōu)化推理能力。

第二,token級策略損失。移除了策略損失中的長度歸一化項(xiàng),并將損失在訓(xùn)練批次內(nèi)的所有token上進(jìn)行平均,以提升優(yōu)化過程的一致性與穩(wěn)定性。

(更多技術(shù)細(xì)節(jié)和實(shí)驗(yàn)對比可以參照技術(shù)博客https://capricious-hydrogen-41c.notion.site/Skywork-Open-Reaonser-Series-1d0bc9ae823a80459b46c149e4f51680,或繼續(xù)關(guān)注后續(xù)發(fā)布的技術(shù)報(bào)告。)

在此訓(xùn)練策略下,Skywork-OR1-7B和Skywork-OR1-32B-Preview通用推理模型仍處于持續(xù)提升狀態(tài),本次開源是當(dāng)前訓(xùn)練過程中性能最佳的checkpoint。

預(yù)計(jì)兩周后,具備更全面能力提升及更強(qiáng)大推理能力的Skywork-OR1正式版本將與大家見面,同樣全面開源。

Hugging Face單月下載量超7萬

自2023年以來,在全面擁抱AIGC后,昆侖萬維一直堅(jiān)持開源,推動技術(shù)平權(quán)。代表性動作包括:

2023年:開源百億級大語言模型Skywork-13B系列及600GB高質(zhì)量數(shù)據(jù)集。2024年:陸續(xù)開源數(shù)字智能體研發(fā)工具包AgentStudio、4000億參數(shù)MoE超級模型、Skywork-MoE、 Skywork-RM/PRM,Skywork-o1。

今年以來,開源的頻率變得更高。第一季度開源動作包括:

面向AI短劇生成的視頻生成模型SkyReels-V1:下載量周榜前十R1V視覺思維鏈推理模型:單月下載8.75kSkywork-OR1新系列:長思維鏈推理模型。

不難發(fā)現(xiàn),昆侖萬維開源全面且徹底,同時(shí)兼顧產(chǎn)業(yè)需求。

一方面,它的基礎(chǔ)模型布局非常全面,覆蓋AIGC全領(lǐng)域,文生文、文生視頻、文生音樂等。

另一方面,這些模型從底層設(shè)計(jì)上即考慮了實(shí)際落地的需求。提供更高性價(jià)比、更節(jié)省算力,如SkyReels-V1則是看到了垂直領(lǐng)域的落地前景,模型下載量迅速增長也驗(yàn)證了這一市場需求。

最關(guān)鍵的是,這些模型的開源程度也相當(dāng)徹底,十分利于開發(fā)者使用。

在Hugging Face上,昆侖萬維開源模型的下載量相當(dāng)可觀,累計(jì)上月下載量超過7萬。


△部分展示

如今,底層模型競爭日趨白熱化,全球AI領(lǐng)域正以驚人的速度迭代演進(jìn),幾乎每個月都有值得關(guān)注的模型發(fā)布,這種創(chuàng)新密度前所未有。

作為國內(nèi)最早All in AIGC賽道的先行者之一,昆侖萬維自2023年起便構(gòu)建了全方位的前沿布局:從基礎(chǔ)大模型到垂直應(yīng)用,從技術(shù)研發(fā)到生態(tài)建設(shè)。尤其值得注意的是,昆侖萬維持續(xù)為開發(fā)者社區(qū)提供高質(zhì)量的模型和工具鏈,這種堅(jiān)持普惠的技術(shù)理念也為其提供了獨(dú)特競爭力。

當(dāng)前,開源生態(tài)正展現(xiàn)出前所未有的活力。

這些開源創(chuàng)新正快速滲透到互聯(lián)網(wǎng)、制造業(yè)、醫(yī)療、教育等領(lǐng)域,推動著AI技術(shù)真正實(shí)現(xiàn)規(guī)模化落地。在這一進(jìn)程中,以昆侖萬維為代表的開源踐行者的每一步探索,都將深刻影響AI產(chǎn)業(yè)的發(fā)展軌跡。

據(jù)說Skywork-OR1正式版,也已經(jīng)快馬加鞭,即將對外發(fā)布。

Skywork開源系列(2025)傳送門:

1、中文推理模型Skywork-OR1:

https://github.com/SkyworkAI/Skywork-o1

2、視覺思維鏈推理模型Skywork-R1V:

https://github.com/SkyworkAI/Skywork-R1V

3、AI短劇生成模型SkyReels-V1:

https://github.com/SkyworkAI/SkyReels-V1

鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。

主站蜘蛛池模板: 久久99国产精一区二区三区! | 欧美亚洲一级片 | 中文乱码人妻系列一区二区 | 又爽又大又黄a级毛片在线视频 | 久久久久亚洲精品天堂 | 成年人免费在线视频观看 | 国产成人精品一区二区不卡 | 99久久精品国产成人综合 | 国产亚洲无线码一区二区 | 亚洲av无码乱码精品国产 | 国产亚洲欧美成人久久片 | 青青青青在线成人视99 | 久久九九热视频 | 亚洲欧美成人久久综合中文网 | 亚洲人成色在线观看 | 人妻熟女久久久久久久 | 奇米影视四色狠狠888俺去啦 | 9999在线视频 | 亚洲aⅴ男人的天堂在线观看 | 精品国产一区二区三区在线观看 | 男人天堂社区 | 无码h片在线观看网站 | 国产无遮挡又黄又爽高清视 | 久久成人永久免费播放 | 成 人 网 站 免 费 av | 5060午夜一级毛片 | 天天做天天摸天天爽天天爱 | 午夜精品久久久久久久无码 | 亚洲国产精品+制服丝袜 | 美女张开双腿让男人捅 | 国产91精品一区二区麻豆网站 | 热99re久久精品2久久久 | 日本三级日产三级国产三级 | 精品少妇人妻av无码久久 | 四虎美女 | 国产精品久久久久7777按摩 | 亚洲熟妇久久精品 | 国产一级视频播放 | 国产在线乱码一区二区三区 | 亚洲国产精品成人久久 | 国内自拍 亚洲系列 欧美系列 |