免費(fèi)、開源且堪比GPT 4!Meta在訓(xùn)練Llama 3了?
有消息稱,Meta正在開發(fā)比GPT4更強(qiáng)大的人工智能大模型Llama3,開源且免費(fèi)!
據(jù)人工智能新聞網(wǎng)站the decoder,這是OpenAI工程師、前谷歌大腦工程師Jason Wei在Meta組織的Generative AI Group社交活動(dòng)中無意中聽到的消息。
(資料圖片僅供參考)
Wei表示,他注意到Meta現(xiàn)在有足夠的計(jì)算能力來訓(xùn)練Llama3和4。Llama3計(jì)劃達(dá)到GPT-4的性能水平,但仍將免費(fèi)提供。
不過,目前還沒有關(guān)于Llama3何時(shí)發(fā)布甚至是否發(fā)布的官方聲明。從今年2月發(fā)布的Llama1到7月的Llama2,Meta花了大約五個(gè)月的時(shí)間。
但值得一提的是,GPT-4具有比Llama標(biāo)準(zhǔn)版更復(fù)雜的架構(gòu)。文章稱,GPT-4可能通過使用更復(fù)雜的專家混合架構(gòu)來實(shí)現(xiàn)其高性能,該架構(gòu)具有16個(gè)專家網(wǎng)絡(luò),每個(gè)網(wǎng)絡(luò)具有約1110億個(gè)參數(shù)。
因此,從Llama 2跳到Llama 3可能不只是簡單地進(jìn)行擴(kuò)展,并且可能比從Llama 1跳到Llama 2需要花費(fèi)更長的時(shí)間。
Llama2在某些應(yīng)用中達(dá)到了GPT-3.5的水平,并且還通過微調(diào)和額外功能由開源社區(qū)進(jìn)行優(yōu)化。
例如,最近發(fā)布的基于Llama2的CodeLlama,通過微調(diào)在Human Eval編碼基準(zhǔn)測試中達(dá)到了GPT-3.5和GPT-4水平的結(jié)果(取決于測量類型)。
然而,在關(guān)于Llama2的論文中,Meta自己指出,與GPT-4和谷歌的PaLM-2等閉源模型之間仍存在巨大的性能差距。
所以可以說,Llama2在某些方面達(dá)到了GPT-3.5的水平,但與最先進(jìn)的閉源模型GPT-4相比,仍存在明顯的差距。它主要的優(yōu)勢在于其開源性,即允許研究人員和開發(fā)者基于它進(jìn)行調(diào)優(yōu)和創(chuàng)新。
英國《金融時(shí)報(bào)》7月中旬報(bào)道稱,Meta開發(fā)Llama模型的主要目標(biāo)是,打破OpenAI在大語言模型(LLM)市場的主導(dǎo)地位。Meta可能會(huì)嘗試將Llama模型建立為LLM市場的一項(xiàng)支持技術(shù),類似于谷歌在移動(dòng)市場上對Android所做的事情,以便稍后推出更多產(chǎn)品。此外,Meta還從開源社區(qū)模型的快速開發(fā)中受益。
OpenAI首席執(zhí)行官Sam Altman于6月上旬表示,GPT-5距離訓(xùn)練發(fā)布還很遠(yuǎn)。谷歌計(jì)劃在今年年底或明年初推出下一代多模態(tài)LLM Gemini。
風(fēng)險(xiǎn)提示及免責(zé)條款 市場有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。關(guān)鍵詞: