大語(yǔ)言模型或推動(dòng)“換機(jī)潮”產(chǎn)業(yè)鏈公司望集體受益
(資料圖片)
■機(jī)會(huì)挖掘
■國(guó)信證券
大模型參數(shù)量級(jí)飛漲,相應(yīng)訓(xùn)練集需同比提升。李開復(fù)定義AI2.0時(shí)代的特征是通過海量數(shù)據(jù),無需標(biāo)注自監(jiān)督學(xué)習(xí),訓(xùn)練一個(gè)基礎(chǔ)大模型,并在各領(lǐng)域?qū)⑵鋵I(yè)化。據(jù)相關(guān)論文,當(dāng)模型的參數(shù)量大于某閾值,會(huì)展現(xiàn)出類似推理、無監(jiān)督學(xué)習(xí)等未曾出現(xiàn)的能力,這種現(xiàn)象被稱為“涌現(xiàn)”,因此目前大語(yǔ)言模型參數(shù)均在十億量級(jí)以上。同時(shí),Deepmind研究表明,模型參數(shù)的上漲需要配合等比例上升的優(yōu)質(zhì)數(shù)據(jù)集來達(dá)到最佳訓(xùn)練效果。因此,大模型參數(shù)在十億級(jí)以上發(fā)展并受限于優(yōu)質(zhì)數(shù)據(jù)集的增速是AI發(fā)展的必然趨勢(shì)。
大模型增長(zhǎng)挑戰(zhàn)芯片算力和內(nèi)存,無法實(shí)現(xiàn)完整端側(cè)部署。大模型訓(xùn)練和推理的三大瓶頸是算力、顯存和通信,根據(jù)我們的測(cè)算,算力方面GPT-3 訓(xùn)練所需算力為121528TFLOPS,若30天內(nèi)完成,需要1558顆A100。內(nèi)存角度,GPT-3訓(xùn)練至少需要3.2T內(nèi)存,至少44張A100,推理任務(wù)則主要受顯存限制,需要4至8張A100,因此完整的模型無法在終端上離線運(yùn)行。
優(yōu)化后大模型可在旗艦機(jī)型芯片上運(yùn)行,AI落地有望推動(dòng)新一輪換機(jī)潮。AI部署本地化具有必要性,優(yōu)勢(shì)包括更低的延遲、更小的帶寬、提高數(shù)據(jù)安全、保護(hù)數(shù)據(jù)隱私、高可靠性等。完整的大模型僅參數(shù)權(quán)重就占滿一張80G的GPU,但是通過量化、知識(shí)蒸餾、剪枝等優(yōu)化,大模型可以在手機(jī)本地實(shí)現(xiàn)推理。高通團(tuán)隊(duì)使用驍龍8Gen2部署StableDiffusion,實(shí)現(xiàn)本地運(yùn)營(yíng)15秒出圖,證明了大模型本地化運(yùn)行的可能,也體現(xiàn)出目前手機(jī)芯片的局限性。根據(jù)IDC數(shù)據(jù),1Q23全球手機(jī)銷量中主處理器頻率超過2.8GHz的占比36%,價(jià)格在1000美金以上的占比13%,即旗艦機(jī)型占比較低,隨著AI大模型在邊緣端落地,有望推動(dòng)新一輪換機(jī)潮。
以大語(yǔ)言模型為核心,以語(yǔ)言為接口,控制多AI模型系統(tǒng),構(gòu)建“賈維斯”式智能管家。我們認(rèn)為大語(yǔ)言模型不僅可以實(shí)現(xiàn)對(duì)話、創(chuàng)意,未來也有望作為眾多復(fù)雜AI模型的控制中心,同時(shí)也是接受用戶指令的交互窗口,實(shí)現(xiàn)《鋼鐵俠》電影中“賈維斯”式綜合智能管家。23年5月,Google推出PaLM2輕量版Gecko,其可在最新的旗艦機(jī)型上離線運(yùn)行。同月,OpenAI首次推出ChatGPT移動(dòng)端應(yīng)用,各家大廠正式進(jìn)入AI模型移動(dòng)端創(chuàng)新、競(jìng)爭(zhēng)時(shí)期。智能音箱、全屋智能中控屏、手機(jī)、MR等均有望成為這一時(shí)代的交互入口。
產(chǎn)業(yè)鏈相關(guān)公司:半導(dǎo)體:晶晨股份、瑞芯微、全志科技、北京君正、兆易創(chuàng)新;消費(fèi)電子:傳音控股、歌爾股份、福立旺、聞泰科技、創(chuàng)維數(shù)字。
(文章來源:金融投資報(bào))
關(guān)鍵詞: