人妻夜夜爽天天爽三区麻豆AV网站,水中色av综合,中国浓毛少妇毛茸茸,国产精品国产三级国产av剧情

蘋果AI訓(xùn)練預(yù)算“每天數(shù)百萬美元”,基礎(chǔ)語言大模型團(tuán)隊由華人領(lǐng)導(dǎo)

作者:王眉

編輯:硬AI


(資料圖片)

近日蘋果面臨諸多不利,前有華為“突襲”提前開售Mate60 Pro,后有知名投資機(jī)構(gòu)Needham Securities稱蘋果缺乏生成式AI和大型語言模型(LLM)方面的戰(zhàn)略,在AI競賽中已被亞馬遜、谷歌和微軟甩在身后。

不過,事實可能并非如此。

據(jù)媒體周三報道,蘋果一直在增加AI部分的投入預(yù)算,訓(xùn)練費用達(dá)每天上百萬美元。

雖然直到今年7月才有媒體爆料蘋果已經(jīng)建立了Ajax大語言模型開發(fā)框架,并在秘密開發(fā)自己的大型語言模型“Apple GPT”,但蘋果關(guān)注到生成式AI遠(yuǎn)比外界想象的更早。

四年前,蘋果的人工智能主管詹南德里亞(John Giannandrea)授權(quán)組建了一個團(tuán)隊來開發(fā)對話式人工智能(即大語言模型),展示了蘋果對該領(lǐng)域的重視。

幾位蘋果員工表示,盡管詹南德里亞多次表達(dá)了對由AI語言模型驅(qū)動的聊天機(jī)器人潛在用途的懷疑,但蘋果并不是完全沒有為未來語言模型的爆發(fā)做好準(zhǔn)備。

日砸百萬豪賭2000億參數(shù)Apple GPT 團(tuán)隊由華人領(lǐng)導(dǎo)

據(jù)悉,蘋果的Foundational Models團(tuán)隊,即會話AI團(tuán)隊,目前的領(lǐng)導(dǎo)者為前谷歌工程師龐若鳴。資料顯示,龐若鳴為上海交大本碩,且本碩僅用5年即畢業(yè),于2021年加入蘋果,此前在谷歌工作了15年。

團(tuán)隊現(xiàn)有16人,其中幾位也是曾在谷歌工作多年的工程師。雖然團(tuán)隊規(guī)模小,但由于訓(xùn)練LLM對算力要求極高,該團(tuán)隊每天需要花費數(shù)百萬美元訓(xùn)練LLM。

除此之外,據(jù)報道,至少還有兩個蘋果團(tuán)隊正在研究語言和圖像模型。其中一個團(tuán)隊正在研究視覺智能,致力于開發(fā)能夠生成“圖像、視頻或3D場景”的軟件;另一個團(tuán)隊正在研究可以處理文本、圖像和視頻的多模態(tài)人工智能。

蘋果計劃將LLM集成在Siri語音助手當(dāng)中,以此達(dá)到iPhone用戶能夠使用簡單的語音命令來自動完成涉及多個步驟的任務(wù)。舉個例子,該技術(shù)能夠讓用戶告訴Siri助手,用他們最近拍攝的五張照片創(chuàng)建一個GIF動圖,并將其發(fā)送給朋友。但目前,iPhone用戶必須手動完成這個過程。

這與谷歌改進(jìn)他們的語音助手類似。但蘋果認(rèn)為,其改進(jìn)的Ajax GPT的語言模型比OpenAI的GPT 3.5更好,預(yù)計將于明年與新版iPhone操作系統(tǒng)一起發(fā)布。

一向封閉的蘋果開展了一場開源運(yùn)動

需要注意的是,開發(fā)LLM或許相對容易,但是將其納入產(chǎn)品中更具挑戰(zhàn)。與一些使用基于云方法的競爭對手不同,蘋果更傾向于在設(shè)備上運(yùn)行軟件,以提高隱私保護(hù)和工作效率。然而,蘋果的LLM(包括Ajax GPT)相當(dāng)龐大,由于其體積和復(fù)雜性(超過2000億個參數(shù)),很難安裝到iPhone上。

縮小大模型的做法有先例,比如谷歌的PaLM2,它有各種尺寸,包括適合設(shè)備和獨立使用的型號。

有分析稱,雖然目前還不清楚蘋果的計劃,但出于隱私考慮,他們可能會選擇較小的LLM。

這就要說到龐若鳴了。

據(jù)了解龐若鳴的人說,他在神經(jīng)網(wǎng)絡(luò)方面發(fā)表的研究成果獲得了大批擁躉。神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的一個子集,涉及訓(xùn)練軟件識別數(shù)據(jù)中的模式和關(guān)系,類似于人類大腦的工作方式。龐若鳴某些比較著名的研究涉及神經(jīng)網(wǎng)絡(luò)如何與手機(jī)處理器協(xié)同工作,以及如何使用并行計算來訓(xùn)練神經(jīng)網(wǎng)絡(luò)。并行計算是將較大的問題分解成多個處理器可以同時計算的較小任務(wù)的過程。

龐若鳴對蘋果的影響可以從AXLearn中看出,這是他的團(tuán)隊在過去1年中開發(fā)用于培訓(xùn)Ajax GPT的內(nèi)部軟件。AXLearn是一個機(jī)器學(xué)習(xí)框架,可以快速訓(xùn)練機(jī)器學(xué)習(xí)模型。AXLearn的部分構(gòu)成基于龐若鳴的研究,并針對谷歌云張量處理單元(TPU) 進(jìn)行了優(yōu)化。

AXLearn是JAX的一個分支,JAX是谷歌研究人員開發(fā)的開源框架。如果將蘋果的Ajax GPT比作一棟房子,那AXLearn就是藍(lán)圖,而JAX就是用來繪制藍(lán)圖的筆和紙。蘋果用來訓(xùn)練大語言模型的數(shù)據(jù)目前尚未公開。

報道稱,今年7月份,蘋果Foundational Models團(tuán)隊悄悄地將AXLearn的代碼上傳到代碼存儲庫GitHub,公眾可以使用它來訓(xùn)練自己的大語言模型,而不必從頭開始構(gòu)建所有內(nèi)容。蘋果公開發(fā)布AXLearn代碼的原因尚不清楚,但公司這樣做通常是希望其他工程師能對模型進(jìn)行改進(jìn)。在詹南德里亞加入蘋果之前,對于向來行事隱秘的蘋果來說,開放可用于商業(yè)用途的源代碼的決定顯得不同尋常。

瘋狂挖角谷歌和Meta

蘋果還在積極從谷歌和Meta的AI團(tuán)隊中“挖人”。

據(jù)悉,自從AXLearn代碼于7月上傳到GitHub上以來,已有18人對其進(jìn)行了改進(jìn),其中至少有12人在過去兩年內(nèi)加入了蘋果的機(jī)器學(xué)習(xí)團(tuán)隊。這些人中,有7人曾在谷歌或Meta工作過。

華爾街見聞此前提及,目前“大模型的安卓”也不好過,Meta內(nèi)部“算力宮斗”,一半Llama核心團(tuán)隊已離職。

風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: