更快、更便宜!Sam Altman最新訪談透露OpenAI下一步計劃,目前GPU短缺是最大瓶頸
GPU、GPU還是GPU,AI掀起的“算力革命”不僅讓幾乎壟斷GPU市場的英偉達成了聚光燈下的焦點,也讓OpenAI CEO在一次又一次的訪談中大談GPU短缺問題。
5月29日,Humanloop,一家從事機器學(xué)習(xí)和人工智能的初創(chuàng)公司,其CEO Raza Habib邀請了包括OpenAI CEO Sam Altman在內(nèi)的20位開發(fā)人員共通探討人工智能的未來,而整個討論中最重要的主題便是——GPU短缺是最大瓶頸。
(資料圖片僅供參考)
Altman表示,目前OpenAI的客戶最不滿的便是API的可靠性和速度,而這個問題主要就是GPU短缺造成的。
這場算力革命,讓英偉達今年以來一度暴漲170%,躋身萬億市值公司行列,在GPU持續(xù)短缺的當(dāng)下,圍繞著英偉達的狂歡還將繼續(xù)嗎?
OpenAI嚴重依賴GPU
Altman表示,他們的下一步計劃就是不斷更新GPT-4,讓其更便宜,更快,而在發(fā)展過程中遇到的最大瓶頸便是GPU短缺,訪談中指出:
長度為32k的上下文窗口還未到推廣時機,OpenAI還未能克服技術(shù)上的障礙,主要是因為算法的高復(fù)雜性。雖然很快就會有10萬—100萬新的32K上下文窗口token,但提供更多的訪問token則需要技術(shù)和研究上突破。
微調(diào)(Fine-Tuning)API目前也受到GPU可用性的限制。他們還沒有使用像Adapters或LoRa這樣的高效微調(diào)方法,所以微調(diào)運行和管理需要高精度的計算。將來會有更好的微調(diào)支持。他們甚至可能主持一個社區(qū)貢獻模型的市場。
OpenAI提供的專用容量服務(wù)受到GPU的限制。當(dāng)用戶請求使用專用容量時,OpenAI需要確保有足夠的GPU可供分配給用戶。然而,由于GPU資源有限,供應(yīng)有限。要使用這項服務(wù),客戶必須愿意預(yù)付10萬美元的費用。
對于OpenAI未來的發(fā)展,Altman表示,在2023年OpenAI的目標是盡可能降低“智能的成本”,繼續(xù)降低API的成本:
更便宜、更快的GPT-4 —— 首要任務(wù)。
更長的上下文窗口 —— 在不久的將來,高達一百萬的上下文窗口token。
微調(diào)(Fine-Tuning)API —— 微調(diào)API將擴展到最新的模型,但這的確切形式將由開發(fā)者表明他們真正想要的東西來塑造。
支持會話狀態(tài)的API —— 現(xiàn)在當(dāng)你調(diào)用聊天API時,你必須反復(fù)重復(fù)歷史對話,并反復(fù)支付同樣的tokens。在未來,API將有一個記住對話歷史的版本。
在5月16日舉行的AI國會聽證會上,Altman就已經(jīng)表達了對算力瓶頸的擔(dān)憂:由于計算能力瓶頸,如果使用ChatGPT的人少一些會更好。
英偉達的狂歡還將繼續(xù)?
在這場AI大戰(zhàn)中,華爾街高呼,英偉達是唯一“軍火商”,其超預(yù)期業(yè)績指引讓市場開啟了一場圍繞著英偉達的狂歡,股價再次節(jié)節(jié)攀升,市值一度突破萬億美元大關(guān)。
目前,包括谷歌和微軟在內(nèi),許多科技巨頭都使用英偉達芯片來為AI業(yè)務(wù)提供算力。谷歌計劃將生成式AI技術(shù)嵌入六個產(chǎn)品,每一個都手握超過20億用戶。
英偉達周一在COMPUTEX大會上推出了新產(chǎn)品,覆蓋了從機器人到游戲的多個領(lǐng)域。它還宣布了一個新的超級計算機平臺——DGX GH200助力新一代大AI模型。谷歌、微軟和Meta預(yù)計是獲得訪問權(quán)的首選客戶。會上,英偉達CEO黃仁勛表示,全球4萬家大公司和1.5萬家初創(chuàng)公司正在使用英偉達的技術(shù)。
英偉達最近表示,該公司正在擴大供應(yīng),以滿足不斷增長的需求。英偉達CEO黃仁勛周日表示,該公司已經(jīng)提高了用于生成式人工智能的新款旗艦芯片H100的產(chǎn)量。
風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負。關(guān)鍵詞: