人妻夜夜爽天天爽三区麻豆AV网站,水中色av综合,中国浓毛少妇毛茸茸,国产精品国产三级国产av剧情

賽道Hyper | 英偉達(dá)封神:潛在對(duì)手已現(xiàn)|焦點(diǎn)速遞

ChatGPT的出現(xiàn),不但讓AI有了比較明確的商業(yè)化方向,也在快速改變服務(wù)器產(chǎn)業(yè)格局。

傳統(tǒng)基于x86架構(gòu)的CPU芯片,在服務(wù)器領(lǐng)域的統(tǒng)治地位,已岌岌可危。

美國(guó)證券半導(dǎo)體分析師在最近發(fā)布的一份報(bào)告中提到,由于ChatGPT對(duì)云計(jì)算以及IDC的AI算力需求激增,很可能導(dǎo)致商業(yè)模式選擇將資源轉(zhuǎn)向AI加速器芯片,比如NVIDIA(英偉達(dá))的GPU(圖形處理單元)和Broadcom/Marvel的AI定制IC(用于AI推理)。


(資料圖)

因此,傳統(tǒng)x86架構(gòu)的、主要由Intel/AMD提供的服務(wù)器CPU,到2025年,可能不再是服務(wù)器的主要芯片。

同時(shí),更重要的事情發(fā)生了:盡管英偉達(dá)的GPU產(chǎn)品如今在支撐ChatGPT的算力需求時(shí),風(fēng)頭無(wú)倆,但挑戰(zhàn)者(或稱分羹者)卻已出現(xiàn)。

正所謂:螳螂捕蟬,黃雀在后。這只黃雀,是何方神圣?

英偉達(dá):超越x86架構(gòu)芯片

Vivek Arya,這位半導(dǎo)體分析師在報(bào)告中認(rèn)為,基于傳統(tǒng)x86架構(gòu)的服務(wù)器CPU芯片商,比如Intel或AMD,正在遇到NVIDIA這個(gè)AI領(lǐng)域領(lǐng)頭羊公司的強(qiáng)力挑戰(zhàn)。

GPU是英偉達(dá)的主要產(chǎn)品,其營(yíng)收占總收入的80%+。GPU通常作為插入PC主板的卡出現(xiàn),也有些SoC芯片設(shè)計(jì)商,將GPU作為SoC芯片的一個(gè)模塊,整合在系統(tǒng)級(jí)芯片中成為一個(gè)整體(比如高通驍龍8Gen 2)。

英偉達(dá)的GPU芯片,主要作用是為AMD或英特爾等公司制造的中央處理器(CPU)增加計(jì)算能力。

Vivek Arya在報(bào)告中估計(jì),2023年至2025年,AI加速器芯片的銷售額將超過(guò)400億美元(相比2022年復(fù)合年均增長(zhǎng)率達(dá)37%)。于此對(duì)應(yīng),x86 CPU復(fù)合年均增長(zhǎng)率僅3%,銷售規(guī)模也僅為260億美元。

在ChatGPT出現(xiàn)前,英偉達(dá)GPU主要在計(jì)算機(jī)圖形學(xué)領(lǐng)域稱王。在PC游戲玩家群體中,英偉達(dá)是神一樣的存在。

英偉達(dá)在GPU領(lǐng)域的主導(dǎo)地位,并非始于今日。1999年,英偉達(dá)通過(guò)GeForce 256進(jìn)入圖形處理市場(chǎng)。20多年后的2022年,游戲業(yè)務(wù)帶給英偉達(dá)超過(guò)90億美元的營(yíng)收。

2022年12月,OpenAI發(fā)布ChatGPT。由于ChatGPT對(duì)算力的極度渴求,相當(dāng)于給算力爆棚的英偉達(dá)安裝了一組營(yíng)收動(dòng)力引擎。算力構(gòu)成了AI商業(yè)繁榮的基礎(chǔ)。Vivek Arya說(shuō),“使用英偉達(dá)的GPU,去增加更多的計(jì)算能力非常容易?,F(xiàn)在,計(jì)算能力相當(dāng)于硅谷的貨幣?!?/p>

作為支撐ChatGPT背后大型語(yǔ)言模型(LLM)底層動(dòng)力引擎,英偉達(dá)由于在AI方面的敏銳洞察力、早期投資和堅(jiān)定不移的堅(jiān)持投入,因而獲得了頂級(jí)回報(bào)。

3月20日-23日,在英偉達(dá)舉行的年度GTC開發(fā)者大會(huì)上,AI成為主要與會(huì)者討論的主要焦點(diǎn)。英偉達(dá)首席執(zhí)行官黃仁勛在被問(wèn)及“提前20年布局AI,到底是運(yùn)氣還是有先見(jiàn)之明”時(shí),黃仁勛回答了這么一句:“我們只是相信總有一天會(huì)發(fā)生新的事情,其余的一切都需要一些偶然性”。

如今AI芯片組云市場(chǎng)主要分為三個(gè)部分:公共云由云服務(wù)提供商托管:AWS、微軟、谷歌、阿里巴巴、百度和騰訊等;其次是企業(yè)數(shù)據(jù)中心,性質(zhì)是私有云和混合云,即結(jié)合公共云和私有云(VMware、Rackspace、NetApp、HPE和DELL)的產(chǎn)品。

除了公共云、私有云和混合云,ABI Research首席分析師蘇連杰認(rèn)為,還有電信云,即電信公司為其核心網(wǎng)絡(luò)、IT和邊緣計(jì)算工作負(fù)載部署的云基礎(chǔ)設(shè)施。

英偉達(dá)的GPU在云端訓(xùn)練方面的主導(dǎo)地位無(wú)可撼動(dòng)。但與此同時(shí),從2020年起,ASIC(專用定制芯片)在AI推理領(lǐng)域也出現(xiàn)強(qiáng)勁增長(zhǎng)。

蘇連杰說(shuō),一些云服務(wù)提供商(CSP)認(rèn)為,推理工作量的規(guī)模并不小于訓(xùn)練工作量。ASIC是AI加速器芯片中用于推理的部分,另一部分即用于訓(xùn)練的GPU。

事實(shí)上,即使是在2022年12月OpenAI發(fā)布的ChatGPT 3.5版本中,也確實(shí)出現(xiàn)了ChatGPT能根據(jù)用戶“投喂”問(wèn)題素材的上下文,做出合乎人類邏輯的精確推理。ChatGPT 4.0版本,推理能力更強(qiáng)。

挑戰(zhàn)者谷歌的TPU技術(shù)特征

如果看AI定制芯片具備的推理能力,實(shí)際上可以發(fā)現(xiàn),英偉達(dá)并非缺乏潛在挑戰(zhàn)者。

從技術(shù)上看,谷歌的TPU(張量處理單元)能同時(shí)處理“云上”訓(xùn)練和推理,而非英偉達(dá)GPU大部分被用于訓(xùn)練,而ASIC又主要用于推理。因此,谷歌的TPU被視為?CPU?和?GPU?技術(shù)的有力挑戰(zhàn)者。

蘇連杰認(rèn)為,谷歌在TPU方面的展示的AI技術(shù)能力,正為云服務(wù)提供商開發(fā)屬于自己的AI加速器ASIC提供了方向和技術(shù)路徑。華為、AWS(亞馬遜)和百度已經(jīng)這樣做了。

就像英偉達(dá)很早就布局AI算力那樣,谷歌做TPU同樣很早。

2006年,谷歌考慮為神經(jīng)網(wǎng)絡(luò)構(gòu)建專用集成電路(即ASIC),到2013年,谷歌意識(shí)到神經(jīng)網(wǎng)絡(luò)(NPU)快速增長(zhǎng)的計(jì)算需求,對(duì)ASIC的需求量很可能會(huì)翻番。2015年,谷歌將TPU部署到服務(wù)器中,并快速迭代。

谷歌TPU如今已迭代到V4.0版。據(jù)谷歌4月6日披露,得益于互連技術(shù)和領(lǐng)域特定加速器(DSA)方面的關(guān)鍵創(chuàng)新,谷歌云TPU v4在擴(kuò)展ML(機(jī)器學(xué)習(xí):Machine Learning)系統(tǒng)性能方面比其前代版本有了近10倍的飛躍。

TPU v4是谷歌于2021年推出的、專門用于執(zhí)行機(jī)器學(xué)習(xí)(ML)的AI芯片,是谷歌第5代特殊領(lǐng)域加速器(DSA:Domain Specific Accelerator)及第3代用于ML模型的超級(jí)計(jì)算機(jī)平臺(tái)。

與英偉達(dá)的當(dāng)紅辣子雞A100相比,TPU v4速度快1.2-1.7倍,功耗低1.3-1.9倍。

基于這款芯片,谷歌研發(fā)了一臺(tái)擁有4096顆TPU?V4的超級(jí)計(jì)算機(jī)。這也是第一個(gè)部署可配置OCS(光電路開關(guān))的超級(jí)計(jì)算機(jī)平臺(tái)。

OCS可動(dòng)態(tài)配置互聯(lián)拓?fù)洌蕴嵘龜U(kuò)展性、可用性、利用率、模塊化、安全、性能及用電效率。和Infiniband相比,OCS及其底層光纖組件,系統(tǒng)成本不到5%;OCS和底層光學(xué)組件更便宜、功耗更低且速度更快,無(wú)需光到電到光的轉(zhuǎn)換或耗電的網(wǎng)絡(luò)分組交換機(jī),從而節(jié)省了電力。TPU v4芯片用電率僅200w,二氧化碳排放比一般本地部署的數(shù)據(jù)中心減少20倍,是執(zhí)行大型語(yǔ)言模型的理想平臺(tái)。

TPU v4超級(jí)計(jì)算機(jī)的每顆TPU v4包含SparseCores,這是一種更接近高帶寬內(nèi)存的中間芯片或資料流處理器,許多AI運(yùn)算都發(fā)生在該芯片中,可使深度學(xué)習(xí)模型嵌入(Embeddings)執(zhí)行速度提升5-7倍,裸晶(die)面積僅5%。

借由Sparsecores,搭載TPU v4的系統(tǒng)可用于執(zhí)行搜索、廣告、YouTube和Google Play的AI內(nèi)容推薦。

更令英偉達(dá)感到有威脅的是,谷歌宣布,提供AI文本生成圖片服務(wù)的AI創(chuàng)業(yè)公司Midjourney已利用Google Cloud TPUv4來(lái)訓(xùn)練其第4版模型。

就像英偉達(dá)的GPU在AI大模型做集群訓(xùn)練時(shí),注重生態(tài)體系構(gòu)建一樣,谷歌也算法-芯片協(xié)同方面做巨額投入。

如今,半導(dǎo)體硬件的技術(shù)迭代已接近摩爾定律的極限,未來(lái)AI芯片性能要百尺竿頭更進(jìn)一步,就硬件層面的提升空間越來(lái)越小。算法和芯片的協(xié)同設(shè)計(jì)將取而代之,成為行業(yè)主流;搭建軟硬件生態(tài)體系和推動(dòng)行業(yè)共建,將在未來(lái)成為半導(dǎo)體技術(shù)和應(yīng)用的主要方向。

風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見(jiàn)、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: