06/11/2024 08:54
《AI熱潮》騰訊推出參數規模最大的開源MoE大語言模型
《經濟通通訊社6日專訊》騰訊(00700)宣布推出業界參數規模最大、效果最好的開
源MoE大語言模型Hunyuan-Large。
此外,騰訊還宣布將推出自研的長文評測集「企鵝卷軸」
(PenguinScrolls),以填補行業在真實長文評測集上的空白。企鵝卷軸基於公
開的金融、法律、學術論文等長文本構建,文本長度從1K到128K不等,覆蓋深度閱讀理解
和長文推理任務。
*Hunyuan-Large超越一流開源模型*
Huanyuan-large模型的總參數量為389B、激活參數為52B、訓練
token數量為7T、最大上下文長度為256K、詞表大小為12﹒8w。
在技術創新方面,Hunyuan-large通過高質量的合成數據來增強模型訓練,彌
補了自然數據的不足。
其中,該模型預訓練支持處理高達256K的文本序列,大幅提升了長文本上下文的處理能
力,能夠更高效地完成長文本任務。
據了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等
多學科綜合評測集上表現優異,在中英文自然語言處理、代碼生成、數學運算等9大能力維度中
全面領先,超越了Llama3﹒1和Mixtral等一流開源模型。(ct)
源MoE大語言模型Hunyuan-Large。
此外,騰訊還宣布將推出自研的長文評測集「企鵝卷軸」
(PenguinScrolls),以填補行業在真實長文評測集上的空白。企鵝卷軸基於公
開的金融、法律、學術論文等長文本構建,文本長度從1K到128K不等,覆蓋深度閱讀理解
和長文推理任務。
*Hunyuan-Large超越一流開源模型*
Huanyuan-large模型的總參數量為389B、激活參數為52B、訓練
token數量為7T、最大上下文長度為256K、詞表大小為12﹒8w。
在技術創新方面,Hunyuan-large通過高質量的合成數據來增強模型訓練,彌
補了自然數據的不足。
其中,該模型預訓練支持處理高達256K的文本序列,大幅提升了長文本上下文的處理能
力,能夠更高效地完成長文本任務。
據了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等
多學科綜合評測集上表現優異,在中英文自然語言處理、代碼生成、數學運算等9大能力維度中
全面領先,超越了Llama3﹒1和Mixtral等一流開源模型。(ct)
【你點睇】港府本年度已錄逾2千億元赤字,有議員指或難符基本法力求收支平衡之規定。你認為當局應如何解決財政問題?► 立即投票