国产无遮挡色视频免费视频-国产五月色婷婷综合-国产五月婷婷-国产午夜不卡-曰批免费视频播放在线看片二-曰韩一级毛片

更多精彩 >

昆侖萬維開源2千億稀疏大模型天工MoE,全球首創能用4090推理

2024-06-03 20:14:23   來源:同花順財經  作者: 

摘要:2024年6月3日,昆侖萬維宣布開源2千億稀疏大模型Skywork-MoE,性能強勁,同時推理成本更低。Skywork-MoE基于之前昆侖萬維開源的Skywork-13B模型中間checkpoint擴展而來,是首個完整將MoEUpcycling技術應用并落地的開源千億MoE大模型,也是首個支持用單臺4090服務器推理的開源千億MoE大模型。

image.png

2024年6月3日,昆侖萬維宣布開源 2 千億稀疏大模型 Skywork-MoE , 性能強勁, 同時推理成本更低。Skywork-MoE 基于之前昆侖萬維開源的 Skywork-13B 模型中間 checkpoint 擴展而來,是首個完整將 MoE Upcycling 技術應用并落地的開源千億 MoE大模型,也是首個支持用單臺 4090 服務器推理的開源千億 MoE大模型。

 

開源地址:

Skywork-MoE 的模型權重、技術報告完全開源,免費商用,無需申請:

模型權重下載:

? https://huggingface.co/Skywork/Skywork-MoE-base

? https://huggingface.co/Skywork/Skywork-MoE-Base-FP8

模型開源倉庫:https://github.com/SkyworkAI/Skywork-MoE

模型技術報告:https://github.com/SkyworkAI/Skywork-MoE/blob/main/skywork-moe-tech-report.pdf

模型推理代碼:(支持 8x4090 服務器上 8 bit 量化加載推理) https://github.com/SkyworkAI/vllm

 

模型架構:

本次開源的 Skywork-MoE 模型隸屬于天工 3.0 的研發模型系列,是其中的中檔大小模型(Skywork-MoE-Medium),模型的總參數量為 146B,激活參數量 22B,共有 16 個 Expert,每個 Expert 大小為 13B,每次激活其中的 2 個 Expert。

天工 3.0 還訓練了 75B (Skywork-MoE-Small) 和 400B (Skywork-MoE-Large)兩檔 MoE 模型,并不在此次開源之列。

 

模型能力:

我們基于目前各大主流模型評測榜單評測了 Skywork-MoE,在相同的激活參數量 20B(推理計算量)下,Skywork-MoE 能力在行業前列,接近 70B 的 Dense 模型。使得模型的推理成本有近 3 倍的下降。同時 Skywork-MoE 的總參數大小比 DeepSeekV2 的總參數大小要小 1/3,用更小的參數規模做到了相近的能力。

image.png

 

技術創新:

為了解決 MoE 模型訓練困難,泛化性能差的問題,相較于 Mixtral-MoE, Skywork-MoE 設計了兩種訓練優化算法:

1. Gating Logits 歸一化操作

我們在 Gating Layer 的 token 分發邏輯處新增了一個 normalization 操作,使得 Gating Layer 的參數學習更加趨向于被選中的 top-2 experts,增加 MoE 模型對于 top-2 的置信度:

image.png

 

2. 自適應的 Aux Loss

有別于傳統的固定系數(固定超參)的 aux loss, 我們在 MoE 訓練的不同階段讓模型自適應的選擇合適的 aux loss 超參系數,從而讓 Drop Token Rate 保持在合適的區間內,既能做到 expert 分發的平衡,又能讓 expert 學習具備差異化,從而提升模型整體的性能和泛化水平。在 MoE 訓練的前期,由于參數學習不到位,導致 Drop Token Rate 太高(token 分布差異太大),此時需要較大的 aux loss 幫助 token load balance;在 MoE 訓練的后期,我們希望 Expert 之間仍保證一定的區分度,避免 Gating 傾向為隨機分發 Token,因此需要較低的 aux loss 降低糾偏。

image.png

 

訓練 Infra

如何對 MoE 模型高效的進行大規模分布式訓練是一個有難度的挑戰,目前社區還沒有一個最佳實踐。Skywork-MoE 提出了兩個重要的并行優化設計,從而在千卡集群上實現了 MFU 38% 的訓練吞吐,其中 MFU 以 22B 的激活參數計算理論計算量。

1. Expert Data Parallel

區別于 Megatron-LM 社區已有的 EP(Expert Parallel)和 ETP(Expert Tensor Parallel)設計,我們提出了一種稱之為 Expert Data Parallel 的并行設計方案,這種并行方案可以在 Expert 數量較小時仍能高效的切分模型,對 Expert 引入的 all2all 通信也可以最大程度的優化和掩蓋。相較于 EP 對 GPU 數量的限制和 ETP 在千卡集群上的低效, EDP 可以較好的解決大規模分布式訓練 MoE 的并行痛點,同時 EDP 的設計簡單、魯棒、易擴展,可以較快的實現和驗證。

image.png

 

一個最簡單的 EDP 的例子,兩卡情況下 TP = 2, EP = 2, 其中 Attention 部分采用 Tensor Parallel , Expert 部分采用 Expert Parallel

 

2. 非均勻切分流水并行

由于 first stage 的 Embedding 計算和 last stage 的 Loss 計算,以及 Pipeline Buffer 的存在, 流水并行下均勻切分 Layer 時的各 stage 計算負載和顯存負載均有較明顯的不均衡情況。我們提出了非均勻的流水并行切分和重計算 Layer 分配方式,使得總體的計算/顯存負載更均衡,約有 10% 左右的端到端訓練吞吐提升。

image.png

 

比較均勻切分和非均勻切分下的流水并行氣泡:對于一個 24 層 Layer 的 LLM, (a) 是均勻切分成 4 個 stage,每個 stage  的 layer 數量是:[6, 6, 6, 6].(b) 是經過優化后的非均勻切分方式,切成 5 個 stage, 每個 stage 的 layer 數量是:[5, 5, 5, 5, 4] , 在中間流水打滿的階段,非均勻切分的氣泡更低。

 

MoE Know-how

此外,Skywork-MoE 還通過一系列基于 Scaling Laws 的實驗,探究哪些約束會影響 Upcycling 和 From Scratch 訓練 MoE 模型的好壞。

image.png

 

一個可以遵循的經驗規則是:如果訓練 MoE 模型的 FLOPs 是訓練 Dense 模型的 2 倍以上,那么選擇 from Scratch 訓練 MoE 會更好,否則的話,選擇 Upcycling 訓練 MoE 可以明顯減少訓練成本。

 

4090 推理

Skywork-MoE 是目前能在 8x4090 服務器上推理的最大的開源 MoE 模型。8x4090 服務器一共有 192GB 的 GPU 顯存,在 FP8 量化下(weight 占用 146GB),使用我們首創的非均勻 Tensor Parallel 并行推理方式,Skywork-MoE 可以在合適的 batch size 內達到 2200 tokens/s 的吞吐。天工團隊完整開源了相關的推理框架代碼和安裝環境,詳情參見:https://github.com/SkyworkAI/Skywork-MoE

 

結語

我們希望本次開源的 Skywork-MoE 模型、技術報告和相關的實驗結果可以給開源社區貢獻更多的 MoE 訓練經驗和 Know-how,包括模型結構、超參選擇、訓練技巧、訓練推理加速等各方面, 探索用更低的訓練推理成本訓更大更強的模型,在通往 AGI 的道路上貢獻一點力量。


猜你喜歡

昆侖萬維開源R1V視覺思維鏈推理模型,開啟多模態思考新時代

昆侖萬維創新創業

3月18日,昆侖萬維正式開源首款工業界多模態思維鏈推理模型Skywork R1V,即日起開源模型權重...

2025-03-18

昆侖萬維開源面向AI短劇創作的視頻生成模型SkyReels-V1,重塑AI短劇行業格局

昆侖萬維創新創業

2月18日,昆侖萬維開源中國首個面向AI短劇創作的視頻生成模型SkyReels-V1、中國首個SOT...

2025-02-18

昆侖萬維發布Matrix-Zero世界模型,開啟空間智能新時代

昆侖萬維創新創業

2月14日,昆侖萬維正式推出 Matrix-Zero世界模型,成為中國第一家同時推出3D場景生成和可...

2025-02-14

昆侖萬維「天工大模型4.0」o1版(Skywork o1)正式啟動邀請測試

昆侖萬維智能+

今天,昆侖萬維正式推出具有復雜思考推理能力的系列模型——“天工大模型4.0” o1版(Skywork...

2024-11-27

昆侖萬維推出“天工大模型4”4o版(Skywork 4o)

昆侖萬維智能+

從「天工大模型1.0」的研發到「天工大模型3.0」的發布,再到今天的「天工大模型4.0」階段,我們堅...

2024-11-20

叮當健康O2O首發原研依蘇帕格魯肽a 7*24小時送藥上門

醫療健康叮當健康

近日,國內糖尿病治療領域迎來新突破。

2025-03-20

歡聚集團發布 Q4及全年財報:歡聚盈利水平連續第四年提升 致力全球業務可持續增長

創新創業歡聚集團

北京時間2025年3月20日,歡聚集團(NASDAQ:YY,簡稱“歡聚”或“集團”)發布2024年第...

2025-03-20

中免集團全球品牌商大會在三亞舉行

創新創業中免集團

3月19至20日,以“無界 共振”為主題的中免集團2025全球品牌商大會在三亞舉行。

2025-03-20

隨牛AI上線觀察:技術革新如何破解投顧服務“高冷”困局?

金融科技隨牛AI

2025年3月21日,這款基于人工智能與大數據的智能投顧工具宣布全面開放下載,其“科技平權”理念引發...

2025-03-20

中科創星領投實時物理AI仿真平臺松應科技

中科創星松應科技

去年下半年,松應ORCA進入公測期,其正式商業化開啟于去年年底,滿打滿算只有3個月時間。

2025-03-20

原創

擬更名“珠免集團” 格力地產聚焦免稅大消費新賽道

格力地產

3月18日,格力地產發布公告,擬將公司中文名稱變更為“珠海珠免集團股份有限公司”,擬將證券簡稱變更為...

2025-03-19

順豐控股:2月業務量9.16億票 同比增長17.74% 正加速升級空中物流版圖

上市公司順豐控股

3月19日晚,順豐控股(002352.SZ)披露了2月經營簡報。

2025-03-19

原創

小米汽車公布自動緊急呼叫專利

小米汽車

【#小米汽車公布自動緊急呼叫專利# 可最大程度保證救援及時性】

2025-03-19

原創

特斯拉申請注冊MEGAPACK商標

特斯拉

【#特斯拉申請注冊MEGAPACK商標#】

2025-03-19

投資家網(www.51baobao.cn)是國內領先的資本與產業創新綜合服務平臺。為活躍于中國市場的VC/PE、上市公司、創業企業、地方政府等提供專業的第三方信息服務,包括行業媒體、智庫服務、會議服務及生態服務。長按右側二維碼添加"投資哥"可與小編深入交流,并可加入微信群參與官方活動,趕快行動吧。

分化浪潮中的堅守與突破 | 第19屆中國投資年會,即將啟幕

分化浪潮中的堅守與突破 | 第19屆中國投資年會,即將啟幕

在時代的浩渺長河中,“分化”宛如一條隱匿的脈絡,貫穿于萬物的生長、發展與變遷。從生命的進化到文明的演...

第二屆中匈可再生能源、新材料商業投資峰會將盛大啟幕

第二屆中匈可再生能源、新材料商業投資峰會將盛大啟幕

第二屆中匈可再生能源、新材料商業投資峰會于2025年4月9日在匈牙利布達佩斯盛大啟幕。

雕刻耐心|第18屆中國投資年會·有限合伙人峰會在滬召開

雕刻耐心|第18屆中國投資年會·有限合伙人峰會在滬召開

“中國投資年會”作為私募股權行業的年度盛會,已成功舉辦了18屆,吸引了全國VC/PE領域從業者的廣泛...

主站蜘蛛池模板: 中文字幕日韩精品中文区 | 欧美最爽乱淫视频播放黑人 | 免费一级a毛片在线播放 | 免费看一区二区三区 | 国产精品久久久久久久久久久搜索 | 九九51精品国产免费看 | 一级淫片免费视频 | 精品午夜寂寞黄网站在线 | 日本人成在线视频免费播放 | 996re免费热在线视频手机 | 91久久线看在观草草青青 | 三级视频网站在线观看播放 | 不卡一区二区在线观看 | 99re热精品视频国产免费 | 亚洲成人精品久久 | 免费看欧美成人性色生活片 | 日本一级毛片免费 | 亚洲男同视频网站 | 久久爱99re| 一区二区三区在线播放视频 | 国产成人v爽在线免播放观看 | 欧美一区综合 | 欧美黄免在线播放 | 美国一级毛片免费看成人 | 国产亚洲精品影达达兔 | 黄色在线视频网 | 99视频99| 日韩成人小视频 | 成人免费一区二区三区在线观看 | 国产成人午夜性视频影院 | 免费国产高清精品一区在线 | 美女被靠视频免费网站不需要会员 | 日本一区二区不卡久久入口 | 手机毛片在线观看 | 国产午夜三区视频在线 | 全国男人的天堂网站 | 欧美日韩永久久一区二区三区 | 多人伦精品一区二区三区视频 | 亚洲撸| 美女舒服好紧太爽了视频 | 综合 欧美 亚洲日本 |