人妻夜夜爽天天爽三区麻豆AV网站,水中色av综合,中国浓毛少妇毛茸茸,国产精品国产三级国产av剧情

圣塔菲學(xué)者:AI 大語(yǔ)言模型真的理解人類語(yǔ)言嗎?

導(dǎo)語(yǔ)

盡管大語(yǔ)言模型表現(xiàn)出近似人類的理解能力,但 AI 系統(tǒng)真的可以像人類一樣理解語(yǔ)言嗎?機(jī)器理解的模式必須和人類理解相同嗎?近日,圣塔菲研究所前所長(zhǎng)克拉考爾和研究員梅拉尼·米歇爾在 PNAS 發(fā)表文章,探討大型預(yù)訓(xùn)練語(yǔ)言模型(LLMs)是否能夠以類似人類的方式理解語(yǔ)言及其所編碼的物理和社會(huì)情境。?

本文分別討論贊成和反對(duì)的觀點(diǎn),并進(jìn)一步探討了更廣泛的智能科學(xué)的關(guān)鍵問(wèn)題。作者認(rèn)為,進(jìn)一步拓展人工智能與自然科學(xué)的交叉研究,有望拓展多學(xué)科的審視角度,總結(jié)不同方法的優(yōu)勢(shì)邊界,應(yīng)對(duì)交叉認(rèn)知理念的融合挑戰(zhàn)。

關(guān)鍵詞:人工智能,大語(yǔ)言模型,心智模型


(相關(guān)資料圖)

----

什么是“理解”?這個(gè)問(wèn)題長(zhǎng)期以來(lái)一直吸引著哲學(xué)家、認(rèn)知科學(xué)家和教育家們的關(guān)注。對(duì)“理解”的經(jīng)典研究幾乎都是以人類和其他動(dòng)物為參照。然而,隨著大規(guī)模人工智能系統(tǒng),特別是大型語(yǔ)言模型的崛起,AI社區(qū)中出現(xiàn)了熱烈的討論:機(jī)器現(xiàn)在是否可以理解自然語(yǔ)言,從而理解語(yǔ)言所描述的物理和社會(huì)情境。

這場(chǎng)討論不僅僅局限在自然科學(xué)的范疇;機(jī)器理解我們世界的程度和方式?jīng)Q定了我們?cè)诙啻蟪潭壬夏軌蛳嘈臕I與人類交互任務(wù)中的穩(wěn)健和透明行為能力,包括AI駕駛汽車、AI診斷疾病、AI照顧老年人、AI教育兒童等等。同時(shí),當(dāng)前的討論展現(xiàn)了一個(gè)智能系統(tǒng)進(jìn)行“理解”的關(guān)鍵問(wèn)題:如何判別統(tǒng)計(jì)相關(guān)性和因果機(jī)制?

盡管AI系統(tǒng)在許多具體任務(wù)中表現(xiàn)出似乎智能的行為,但直到最近,人工智能研究界依然普遍認(rèn)為機(jī)器無(wú)法像人類那樣理解它們所處理的數(shù)據(jù)。

例如:人臉識(shí)別軟件不理解面部是身體的一部分、面部表情在社交互動(dòng)中的作用、"面對(duì)"不愉快的情境意味著什么,或者做鬼臉的方式方法。同樣,語(yǔ)音轉(zhuǎn)文字和機(jī)器翻譯程序不理解它們處理的語(yǔ)言,自動(dòng)駕駛系統(tǒng)也不理解駕駛員和行人在規(guī)避事故時(shí)的微表情和肢體語(yǔ)言。因此,這些AI系統(tǒng)常常被認(rèn)為是脆弱的,缺乏“理解”的關(guān)鍵證據(jù)是,它們不可預(yù)測(cè)錯(cuò)誤、泛化能力缺乏魯棒性[1]。

大語(yǔ)言模型真的理解語(yǔ)言嗎?

然而,過(guò)去幾年情況發(fā)生了轉(zhuǎn)變,一種新型的AI系統(tǒng)在研究界廣受歡迎并產(chǎn)生了影響,改變了一些人對(duì)機(jī)器理解語(yǔ)言的前景和看法。這些系統(tǒng)被稱為大型語(yǔ)言模型(LLMs)、大型預(yù)訓(xùn)練模型或基礎(chǔ)模型[2],它們是具有數(shù)十億到數(shù)萬(wàn)億參數(shù)(權(quán)重)的深度神經(jīng)網(wǎng)絡(luò),被“預(yù)訓(xùn)練”于數(shù)TB的巨大自然語(yǔ)言語(yǔ)料庫(kù)上,包括大量網(wǎng)絡(luò)快照、在線圖書和其他內(nèi)容。在訓(xùn)練期間,這些網(wǎng)絡(luò)的任務(wù)是預(yù)測(cè)輸入句子中的隱藏部分,這種方法被稱為“自監(jiān)督學(xué)習(xí)”。最終的網(wǎng)絡(luò)是其訓(xùn)練數(shù)據(jù)中的單詞和短語(yǔ)之間相關(guān)性的復(fù)雜統(tǒng)計(jì)模型。

這些模型可以用來(lái)生成自然語(yǔ)言,進(jìn)行特定語(yǔ)言任務(wù)的微調(diào)[3],或進(jìn)一步訓(xùn)練以更好地匹配“用戶意圖”[4]。例如,OpenAI的著名GPT-3[5]、更近期的ChatGPT[6]和Google的PaLM[7]這樣的LLMs能夠產(chǎn)生驚人的類人文本和對(duì)話;此外,盡管這些模型并沒(méi)有以推理為目的開(kāi)展訓(xùn)練,一些研究認(rèn)為它們具有類人的推理能力[8]。

LLMs 如何完成這些壯舉對(duì)于普通人和科學(xué)家來(lái)說(shuō)都是個(gè)謎。這些網(wǎng)絡(luò)內(nèi)部的運(yùn)作方式大都不透明,即使是構(gòu)建它們的研究人員對(duì)于如此巨大規(guī)模的系統(tǒng)也只有些許直觀感受。神經(jīng)科學(xué)家 Terrence Sejnowski 這樣描述LLM的出現(xiàn):“奇點(diǎn)降臨,似天外來(lái)客,忽紛沓而來(lái),語(yǔ)四國(guó)方言。我們唯一清楚的是,LLMs 不是人類……它們的某些行為看起來(lái)是智能的,但如果不是人類的智能,又是什么呢?”[9]

盡管最先進(jìn)的LLMs很令人印象深刻,它們?nèi)匀蝗菀壮霈F(xiàn)不像人類的脆弱性和錯(cuò)誤。然而,這樣的網(wǎng)絡(luò)缺陷在其參數(shù)數(shù)量和訓(xùn)練數(shù)據(jù)集規(guī)模擴(kuò)大時(shí)顯著改進(jìn)[10],因而一些研究者認(rèn)為L(zhǎng)LMs(或者其多模態(tài)版本)將在足夠大的網(wǎng)絡(luò)和訓(xùn)練數(shù)據(jù)集下實(shí)現(xiàn)人類級(jí)別的智能和理解能力,出現(xiàn)了一個(gè)AI新口號(hào):“規(guī)模就是一切”[11, 12]。

上述主張是AI學(xué)界在LLMs討論中的一個(gè)流派。一部分人認(rèn)為這些網(wǎng)絡(luò)真正理解了語(yǔ)言,并且能夠以一種普遍的方式進(jìn)行推理(雖然“尚未”達(dá)到人類水平)。例如,谷歌的LaMDA系統(tǒng)通過(guò)預(yù)先訓(xùn)練文本,再微調(diào)對(duì)話的方式構(gòu)造了一個(gè)談吐流暢的對(duì)話系統(tǒng)[13],某AI研究者甚至認(rèn)為這樣的系統(tǒng)“對(duì)大量概念具備真實(shí)理解能力”[14],甚至“朝著有意識(shí)的方向邁進(jìn)”[15]。

另一位機(jī)器語(yǔ)言專家將LLMs視為通向一般人類水平AI的試金石:“一些樂(lè)觀研究者認(rèn)為,我們見(jiàn)證了具有一定普遍智能程度的知識(shí)注入系統(tǒng)誕生”[16]。另一些人士認(rèn)為,LLMs很可能捕捉到了意義的重要方面,而且其工作方式近似于人類認(rèn)知的一個(gè)引人注目的解釋,即意義來(lái)源于概念角色。”[17]。反對(duì)者被掛上“AI否認(rèn)主義”標(biāo)簽[18]。

另一方面,有人認(rèn)為盡管像GPT-3或LaMDA這樣的大型預(yù)訓(xùn)練模型的輸出很流利,但仍然不能具備理解能力,因?yàn)樗鼈儧](méi)有世界的經(jīng)驗(yàn)或思維模式;LLMs的文本預(yù)測(cè)訓(xùn)練只是學(xué)會(huì)了語(yǔ)言的形式,而不是意義[19-21]。

最近一篇文章認(rèn)為:“即使從現(xiàn)在開(kāi)始一直訓(xùn)練到宇宙熱寂,單憑語(yǔ)言訓(xùn)練的系統(tǒng)永遠(yuǎn)也不會(huì)逼近人類智能,而且這些系統(tǒng)注定只能擁有膚淺的理解,永遠(yuǎn)無(wú)法逼近我們?cè)谒伎忌系娜嫘浴盵22]。還有學(xué)者認(rèn)為,把“智能”、“智能體”和“理解”等概念套用在LLMs身上是不對(duì)的,因?yàn)長(zhǎng)LMs更類似于圖書館或百科全書,是在打包人類的知識(shí)存儲(chǔ)庫(kù),而不是智能體[23]。

例如,人類知道“撓癢癢”會(huì)讓我們笑,是因?yàn)槲覀冇猩眢w。LLMs可以使用“撓癢癢”這個(gè)詞,但它顯然從未有過(guò)這種感覺(jué)。理解撓癢癢不是兩個(gè)詞之間的映射,而是詞和感覺(jué)之間的映射。

那些持“LLMs無(wú)法真正理解”立場(chǎng)的人認(rèn)為,我們驚訝的不是LLMs流暢程度本身,而是流暢程度隨模型規(guī)模的增長(zhǎng)超乎直覺(jué)這件事情。任何將理解或意識(shí)歸因于LLMs的人都是“伊萊扎效應(yīng)(Eliza effect)”的受害者[24]?!耙寥R扎效應(yīng)”是指我們?nèi)祟悆A向于將理解和代理能力歸因于具有即使是微弱的人類語(yǔ)言或行為跡象的機(jī)器,得名于Joseph Weizenbaum在1960年代開(kāi)發(fā)的聊天機(jī)器人“Eliza”,盡管非常簡(jiǎn)單,仍然欺騙了人們相信它理解了他們[25]。

2022年對(duì)自然語(yǔ)言處理領(lǐng)域活躍學(xué)者的一項(xiàng)調(diào)查亦佐證了這場(chǎng)討論的觀點(diǎn)分歧。其中一項(xiàng)調(diào)查內(nèi)容是詢問(wèn)受訪者是否同意以下關(guān)于LLMs是否在原則上理解語(yǔ)言的說(shuō)法:“一些僅在文本上訓(xùn)練的生成模型(即語(yǔ)言模型),在給定足夠的數(shù)據(jù)和計(jì)算資源的情況下,可以在某些非平凡意義上理解自然語(yǔ)言。”480人的答案幾乎一半(51%)對(duì)一半(49%)[26]。

支持者佐證當(dāng)前LLMs具備理解能力的重要依據(jù)是模型能力表現(xiàn):既包括對(duì)模型根據(jù)提示詞生成文本的主觀質(zhì)量判斷(盡管這種判斷可能容易受到Eliza效應(yīng)的影響),亦包括在用于評(píng)估語(yǔ)言理解和推理能力的基準(zhǔn)數(shù)據(jù)集客觀評(píng)價(jià)。例如,評(píng)估LLMs的兩個(gè)常用基準(zhǔn)數(shù)據(jù)集是通用語(yǔ)言理解評(píng)估(GLUE)[27]及其后繼者SuperGLUE[28],它們包括大規(guī)模的數(shù)據(jù)集和任務(wù),如“文本蘊(yùn)含”(給定兩個(gè)句子,第二個(gè)句子的意思是否可以從第一個(gè)句子推斷出來(lái)?),“情景含義”(在兩個(gè)不同的句子中,給定的詞語(yǔ)是否有相同的意義?)和邏輯回答等。

OpenAI的GPT-3(具有1750億個(gè)參數(shù))在這些任務(wù)上表現(xiàn)出人意料之外的好[5],而Google的PaLM(具有5400億個(gè)參數(shù))在這些任務(wù)上表現(xiàn)得更好[7],能夠達(dá)到甚至超越人類在相同任務(wù)上的表現(xiàn)。?

機(jī)器理解必須重現(xiàn)人類理解嗎?

這些結(jié)果對(duì)LLMs的理解有何啟示?從“泛化語(yǔ)言理解”,“自然語(yǔ)言推理”,“閱讀理解”和“常識(shí)推理”等術(shù)語(yǔ)的選擇不難看出,上述基準(zhǔn)數(shù)據(jù)集的測(cè)試暗含機(jī)器必須重現(xiàn)人類理解方式的前提假設(shè)。

但這是“理解”必須的嗎?并非一定如此。以“論證推理理解任務(wù)”基準(zhǔn)評(píng)估為例[29],在每個(gè)任務(wù)示例中,都會(huì)給出一個(gè)自然語(yǔ)言的“論據(jù)”,以及兩個(gè)陳述句;任務(wù)是確定哪個(gè)陳述句與論據(jù)一致,如下例所示:

論點(diǎn):罪犯應(yīng)該有投票權(quán)。一個(gè)在17歲時(shí)偷了一輛車的人不應(yīng)該被終身剝奪成為完整公民的權(quán)利。

推斷A:盜竊汽車是一項(xiàng)重罪。

推斷B:盜竊汽車不是一項(xiàng)重罪。

BERT在這項(xiàng)基準(zhǔn)任務(wù)中獲得了近似人類的表現(xiàn)[31]?;蛟S我們能夠由此得出結(jié)論,即BERT可以像人類一樣理解自然語(yǔ)言。但一個(gè)研究小組發(fā)現(xiàn),在推斷語(yǔ)句中出現(xiàn)的某些線索詞(例如“not”)能夠輔助模型預(yù)測(cè)出正確答案。當(dāng)研究人員變換數(shù)據(jù)集來(lái)避免這些線索詞出現(xiàn)時(shí),BERT的表現(xiàn)性能變得和隨機(jī)猜測(cè)無(wú)異。

這是一個(gè)明顯的依靠捷徑學(xué)習(xí)(shortcut learning)的例子——一個(gè)在機(jī)器學(xué)習(xí)中經(jīng)常被提及的現(xiàn)象,即學(xué)習(xí)系統(tǒng)通過(guò)分析數(shù)據(jù)集中的偽相關(guān)性,而不是通過(guò)類人理解(humanlike understanding),來(lái)獲得在特定基準(zhǔn)任務(wù)上的良好表現(xiàn)[32-35]。

通常情況下,這種相關(guān)性對(duì)于執(zhí)行相同任務(wù)的人類來(lái)說(shuō)表現(xiàn)得并不明顯。雖然捷徑學(xué)習(xí)現(xiàn)象在評(píng)估語(yǔ)言理解和其他人工智能模型的任務(wù)中已經(jīng)被發(fā)現(xiàn),但仍可能存在很多未被發(fā)現(xiàn)的“捷徑”存在。像谷歌的LaMDA和PaLM這種擁有千億參數(shù)規(guī)模、在近萬(wàn)億的文本數(shù)據(jù)上進(jìn)行訓(xùn)練的預(yù)訓(xùn)練語(yǔ)言模型,擁有強(qiáng)大的編碼數(shù)據(jù)相關(guān)性的能力。

因此,用于評(píng)估人類理解能力的基準(zhǔn)任務(wù)或許對(duì)這類模型評(píng)估來(lái)說(shuō)并不適用[36-38]。對(duì)于大規(guī)模LLMs(以及LLMs可能的衍生模型)來(lái)說(shuō),通過(guò)復(fù)雜的統(tǒng)計(jì)相關(guān)性計(jì)算能夠讓模型繞開(kāi)類人理解能力,獲得近乎完美的模型表現(xiàn)。

雖然“類人理解”一詞沒(méi)有嚴(yán)格的定義,但它本質(zhì)上并不是基于當(dāng)下LLMs所學(xué)習(xí)的這類龐大的統(tǒng)計(jì)模型;相反,它基于概念——外部類別、情況和事件的內(nèi)部心智模型,以及人類自身的內(nèi)部狀態(tài)和“自我”的內(nèi)部心智模型。對(duì)于人類來(lái)說(shuō),理解語(yǔ)言(以及其他非語(yǔ)言信息)依賴于對(duì)語(yǔ)言(或其他信息)表達(dá)之外的概念的掌握,并非局限于理解語(yǔ)言符號(hào)的統(tǒng)計(jì)屬性。

事實(shí)上,在認(rèn)知科學(xué)領(lǐng)域的過(guò)往研究歷史中,一直強(qiáng)調(diào)對(duì)概念本質(zhì)的理解以及理解力是如何從條理清晰、層次分明且包含潛在因果關(guān)系的概念中產(chǎn)生的。這種理解力模型幫助人類對(duì)過(guò)往知識(shí)和經(jīng)驗(yàn)進(jìn)行抽象化以做出穩(wěn)健的預(yù)測(cè)、概括和類比;或是進(jìn)行組合推理、反事實(shí)推理;或是積極干預(yù)現(xiàn)實(shí)世界以檢驗(yàn)假設(shè);又或是向他人闡述自己所理解的內(nèi)容。

毫無(wú)疑問(wèn),盡管有些規(guī)模越來(lái)越大的LLMs零星地表現(xiàn)出近似人類的理解能力,但當(dāng)前的人工智能系統(tǒng)并不具備這些能力,包括最前沿的LLMs。有人認(rèn)為,這種理解能力能夠賦予人類純統(tǒng)計(jì)模型無(wú)法獲得的能力。

盡管大模型展現(xiàn)出了非凡的形式語(yǔ)言能力(formal linguistic competence)——即產(chǎn)生語(yǔ)法流利、類人語(yǔ)言的能力,它仍然缺乏基于概念理解的類人功能語(yǔ)言能力(humanlike functional language abilities)——即在現(xiàn)實(shí)世界中正確理解和使用語(yǔ)言的能力。有趣的是,物理學(xué)研究中也有類似的現(xiàn)象,即數(shù)學(xué)技法的成功運(yùn)用和這種功能理解能力之間的矛盾。

例如,一直以來(lái)關(guān)于量子力學(xué)的一個(gè)爭(zhēng)議是,它提供了一種有效的計(jì)算方法,而沒(méi)有提供概念性理解。

關(guān)于概念的本質(zhì)理解一直以來(lái)是學(xué)界爭(zhēng)論的主題之一。對(duì)于概念在多大程度上是領(lǐng)域特定的和先天的,而不是更通用的和習(xí)得的[55-60],或者概念在多大程度上是基于具象隱喻的,并通過(guò)動(dòng)態(tài)的、基于情境的模擬在大腦中呈現(xiàn)[64],又或者概念在何種條件下是由語(yǔ)言[65–67]、社會(huì)學(xué)習(xí)[68–70]和文化支撐的[71–73],研究人員在這些方面存在分歧。

盡管存在以上爭(zhēng)論,概念——就像前文所述的那樣以因果心智模型的形式存在——一直以來(lái)被認(rèn)為是人類認(rèn)知能力的理解單元。毫無(wú)疑問(wèn),縱觀人類理解能力的發(fā)展軌跡,不論是個(gè)人理解還是集體理解,都可以抽象為對(duì)世界進(jìn)行高度壓縮的、基于因果關(guān)系的模型,類似于從托勒密的行星公轉(zhuǎn)理論到開(kāi)普勒的橢圓軌道理論,再到牛頓根據(jù)引力對(duì)行星運(yùn)動(dòng)的簡(jiǎn)明和因果關(guān)系的解釋。

與機(jī)器不同的是,人類似乎在科學(xué)研究以及日常生活中都有追求這種理解形式的強(qiáng)烈內(nèi)驅(qū)力。我們可以將這種動(dòng)力描述為需要很少的數(shù)據(jù),極簡(jiǎn)的模型,明確的因果依賴性和強(qiáng)大的機(jī)械直覺(jué)。

關(guān)于LLMs理解能力的爭(zhēng)論主要集中以下幾個(gè)方面:

1)這些模型系統(tǒng)的理解能力是否僅僅為一種類別錯(cuò)誤?(即,將語(yǔ)言符號(hào)之間的聯(lián)系混淆為符號(hào)與物理、社會(huì)或心智體驗(yàn)之間的聯(lián)系)。簡(jiǎn)而言之,這些模型系統(tǒng)永遠(yuǎn)無(wú)法獲得類人的理解能力嗎?

或者,相反地,2)這些模型系統(tǒng)(或者它們近期的衍生模型)真的會(huì)在缺乏現(xiàn)實(shí)世界經(jīng)驗(yàn)的情況下,創(chuàng)造出對(duì)人類理解來(lái)說(shuō)至關(guān)重要的大量的基于概念的心智模型嗎?如果是的話,增大模型規(guī)模是否會(huì)創(chuàng)造出更好的概念?

或者,3)如果這些模型系統(tǒng)無(wú)法創(chuàng)造這樣的概念,那么它們難以想象的龐大的統(tǒng)計(jì)相關(guān)性系統(tǒng)是否能產(chǎn)生與人類理解功能相當(dāng)?shù)哪芰δ??又或者,這是否意味著人類無(wú)法達(dá)到的新形式的高階邏輯能力成為可能?從這一角度上看,將這種相關(guān)性稱為“偽相關(guān)性”或質(zhì)疑“捷徑學(xué)習(xí)”現(xiàn)象是否仍然合適?將模型系統(tǒng)的行為視為一系列新興的、非人類的理解活動(dòng),而不是“沒(méi)有理解能力”,是否行得通?

這些問(wèn)題已不再局限于抽象的哲學(xué)探討,而是涉及到人工智能系統(tǒng)在人類日常生活中扮演的越來(lái)越重要的角色所帶來(lái)的能力、穩(wěn)健性、安全性和倫理方面的非常現(xiàn)實(shí)的擔(dān)憂。

雖然各派研究者對(duì)于“LLMs理解能力”的爭(zhēng)論都有自身的見(jiàn)解,但目前用于獲得理解洞察力的基于認(rèn)知科學(xué)的方法不足以回答關(guān)于LLMs的這類問(wèn)題。事實(shí)上,一些研究人員已經(jīng)將心理測(cè)試應(yīng)用于LLMs,這些測(cè)試最初是用來(lái)評(píng)估人類理解和推理機(jī)制的。

發(fā)現(xiàn)LLMs在某些情況下確實(shí)在心理理論測(cè)試[14, 75]中表現(xiàn)出類似人類的反應(yīng),以及在推理評(píng)估中表現(xiàn)出類似人類的能力和偏好 [76–78]。雖然這種測(cè)試被認(rèn)為是評(píng)估人類通用能力的替代性測(cè)試,但對(duì)人工智能模型系統(tǒng)來(lái)說(shuō)可能并非如此。

一種新興的理解能力

正如前文所提到的,LLMs有一種難以解釋的能力,可以在訓(xùn)練數(shù)據(jù)和輸入中學(xué)習(xí)信息符號(hào)之間的相關(guān)性,并且可以使用這種相關(guān)性來(lái)解決問(wèn)題。相比之下,人類似乎應(yīng)用了反映他們現(xiàn)實(shí)世界經(jīng)驗(yàn)的被壓縮的概念。當(dāng)把為人類設(shè)計(jì)的心理測(cè)試應(yīng)用于LLMs時(shí),其解釋結(jié)果往往依賴于對(duì)人類認(rèn)知的假設(shè),而這些假設(shè)對(duì)于模型來(lái)說(shuō)可能根本不正確。

為了取得進(jìn)展,科學(xué)家們需要設(shè)計(jì)新的基準(zhǔn)任務(wù)和研究方法,以深入了解不同類型的智能和理解機(jī)制,包括我們已經(jīng)創(chuàng)造的“異類的、類似思維實(shí)體”(exotic, mind-like entities)[79] 的新形式,或許我們正在踏上通往挖掘“理解”本質(zhì)的正確道路上[80, 81]。

隨著關(guān)于LLMs理解能力的討論聲音越來(lái)越多,以及更多有能力的模型系統(tǒng)的出現(xiàn),這一切似乎都在強(qiáng)調(diào)未來(lái)有必要加強(qiáng)對(duì)于智能科學(xué)的研究,以便對(duì)人類和機(jī)器的更廣泛理解概念進(jìn)行理解。正如神經(jīng)科學(xué)家Terrence Sejnowski 所指出的,“專家們對(duì)LLMs智能的分歧表明,我們基于自然智能的傳統(tǒng)觀念是不夠充分的。[9]

”如果LLMs和其他模型成功地利用了強(qiáng)大的統(tǒng)計(jì)相關(guān)性,也許也可以被認(rèn)為是一種新興的“理解”能力,一種能夠?qū)崿F(xiàn)非凡的、超人的預(yù)測(cè)能力。比如DeepMind的AlphaZero和AlphaFold模型系統(tǒng) [82, 83],它們似乎分別為國(guó)際象棋和蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)領(lǐng)域帶來(lái)了一種來(lái)自“外星”的直覺(jué)形式[84, 85]。

因此可以這樣說(shuō),近年來(lái)在人工智能領(lǐng)域出現(xiàn)了具有新興理解模式的機(jī)器,這或許是一個(gè)更大的相關(guān)概念動(dòng)物園(zoo of related concepts)中的新物種。隨著我們?cè)谧非笾悄鼙举|(zhì)的過(guò)程中所取得的研究進(jìn)展,這些新興的理解模式將不斷涌現(xiàn)。正如不同的物種適應(yīng)于不同的環(huán)境一樣,我們的智能系統(tǒng)也將更好地適應(yīng)于不同的問(wèn)題。

依賴大量的歷史的編碼知識(shí)(encoded knowledge)的問(wèn)題(強(qiáng)調(diào)模型性能表現(xiàn))將繼續(xù)青睞大規(guī)模的統(tǒng)計(jì)模型,如LLMs,而那些依賴有限知識(shí)和強(qiáng)大因果機(jī)制的問(wèn)題將更青睞人類智能。未來(lái)的挑戰(zhàn)是開(kāi)發(fā)出新的研究方法,以詳細(xì)揭示不同智能形式的理解機(jī)制,辨別它們的優(yōu)勢(shì)和局限性,并學(xué)習(xí)如何整合這些不同的認(rèn)知模式。?

參考文獻(xiàn)從略

本文作者:Melanie Mitchella, David C. Krakauera,范思雨、張?bào)K翻譯,文章來(lái)源:集智俱樂(lè)部,原文標(biāo)題:《圣塔菲學(xué)者:AI 大語(yǔ)言模型真的理解人類語(yǔ)言嗎?》

原文地址:https://www.pnas.org/doi/10.1073/pnas.2215907120

風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見(jiàn)、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: