華為近日邁出了其在人工智能領(lǐng)域的一大步,正式對(duì)外宣布將開源其盤古系列的兩大模型及推理技術(shù)。這一舉措不僅標(biāo)志著華為在昇騰生態(tài)戰(zhàn)略上的又一重要實(shí)踐,更為大模型技術(shù)的深入研究和創(chuàng)新發(fā)展注入了新的活力。
具體而言,華為此番開源的模型包括一個(gè)擁有70億參數(shù)的稠密模型,以及一個(gè)采用了混合專家架構(gòu)(MoE)的盤古Pro MoE模型,該模型參數(shù)規(guī)模高達(dá)720億。盤古Pro MoE模型通過創(chuàng)新的動(dòng)態(tài)路由機(jī)制,實(shí)現(xiàn)了計(jì)算資源的合理分配,從而在保持模型規(guī)模的同時(shí),顯著提升了推理效率。
值得注意的是,華為此次開源的不僅僅是模型本身,還包括了基于昇騰AI平臺(tái)的專用推理優(yōu)化技術(shù)。這一技術(shù)的加入,無疑將為開發(fā)者提供更加高效、便捷的模型部署方案。據(jù)悉,盤古Pro MoE 72B模型的權(quán)重和基礎(chǔ)推理代碼已經(jīng)上線至開源平臺(tái),而針對(duì)超大規(guī)模MoE模型的昇騰優(yōu)化推理代碼也將在不久的將來與公眾見面。
華為的這一開源行動(dòng),迅速在開源社區(qū)與產(chǎn)業(yè)界引起了熱烈反響。不少業(yè)內(nèi)專家對(duì)此表示高度認(rèn)可,認(rèn)為這將對(duì)我國(guó)AI產(chǎn)業(yè)的發(fā)展產(chǎn)生深遠(yuǎn)影響。一方面,70億參數(shù)的稠密模型和720億參數(shù)的混合專家模型為不同規(guī)模的企業(yè)提供了多樣化的技術(shù)選擇,有助于推動(dòng)人工智能技術(shù)在各行各業(yè)的廣泛應(yīng)用;另一方面,基于昇騰平臺(tái)的深度優(yōu)化技術(shù)將進(jìn)一步提升大模型應(yīng)用的部署效率,為我國(guó)在全球人工智能競(jìng)爭(zhēng)中贏得更多話語權(quán)。