圣塔菲學(xué)者:AI 大語言模型真的理解人類語言嗎?
導(dǎo)語
盡管大語言模型表現(xiàn)出近似人類的理解能力,但 AI 系統(tǒng)真的可以像人類一樣理解語言嗎?機(jī)器理解的模式必須和人類理解相同嗎?近日,圣塔菲研究所前所長克拉考爾和研究員梅拉尼·米歇爾在 PNAS 發(fā)表文章,探討大型預(yù)訓(xùn)練語言模型(LLMs)是否能夠以類似人類的方式理解語言及其所編碼的物理和社會情境。?
本文分別討論贊成和反對的觀點(diǎn),并進(jìn)一步探討了更廣泛的智能科學(xué)的關(guān)鍵問題。作者認(rèn)為,進(jìn)一步拓展人工智能與自然科學(xué)的交叉研究,有望拓展多學(xué)科的審視角度,總結(jié)不同方法的優(yōu)勢邊界,應(yīng)對交叉認(rèn)知理念的融合挑戰(zhàn)。
關(guān)鍵詞:人工智能,大語言模型,心智模型
(相關(guān)資料圖)
----
什么是“理解”?這個(gè)問題長期以來一直吸引著哲學(xué)家、認(rèn)知科學(xué)家和教育家們的關(guān)注。對“理解”的經(jīng)典研究幾乎都是以人類和其他動(dòng)物為參照。然而,隨著大規(guī)模人工智能系統(tǒng),特別是大型語言模型的崛起,AI社區(qū)中出現(xiàn)了熱烈的討論:機(jī)器現(xiàn)在是否可以理解自然語言,從而理解語言所描述的物理和社會情境。
這場討論不僅僅局限在自然科學(xué)的范疇;機(jī)器理解我們世界的程度和方式?jīng)Q定了我們在多大程度上能夠相信AI與人類交互任務(wù)中的穩(wěn)健和透明行為能力,包括AI駕駛汽車、AI診斷疾病、AI照顧老年人、AI教育兒童等等。同時(shí),當(dāng)前的討論展現(xiàn)了一個(gè)智能系統(tǒng)進(jìn)行“理解”的關(guān)鍵問題:如何判別統(tǒng)計(jì)相關(guān)性和因果機(jī)制?
盡管AI系統(tǒng)在許多具體任務(wù)中表現(xiàn)出似乎智能的行為,但直到最近,人工智能研究界依然普遍認(rèn)為機(jī)器無法像人類那樣理解它們所處理的數(shù)據(jù)。
例如:人臉識別軟件不理解面部是身體的一部分、面部表情在社交互動(dòng)中的作用、"面對"不愉快的情境意味著什么,或者做鬼臉的方式方法。同樣,語音轉(zhuǎn)文字和機(jī)器翻譯程序不理解它們處理的語言,自動(dòng)駕駛系統(tǒng)也不理解駕駛員和行人在規(guī)避事故時(shí)的微表情和肢體語言。因此,這些AI系統(tǒng)常常被認(rèn)為是脆弱的,缺乏“理解”的關(guān)鍵證據(jù)是,它們不可預(yù)測錯(cuò)誤、泛化能力缺乏魯棒性[1]。
大語言模型真的理解語言嗎?
然而,過去幾年情況發(fā)生了轉(zhuǎn)變,一種新型的AI系統(tǒng)在研究界廣受歡迎并產(chǎn)生了影響,改變了一些人對機(jī)器理解語言的前景和看法。這些系統(tǒng)被稱為大型語言模型(LLMs)、大型預(yù)訓(xùn)練模型或基礎(chǔ)模型[2],它們是具有數(shù)十億到數(shù)萬億參數(shù)(權(quán)重)的深度神經(jīng)網(wǎng)絡(luò),被“預(yù)訓(xùn)練”于數(shù)TB的巨大自然語言語料庫上,包括大量網(wǎng)絡(luò)快照、在線圖書和其他內(nèi)容。在訓(xùn)練期間,這些網(wǎng)絡(luò)的任務(wù)是預(yù)測輸入句子中的隱藏部分,這種方法被稱為“自監(jiān)督學(xué)習(xí)”。最終的網(wǎng)絡(luò)是其訓(xùn)練數(shù)據(jù)中的單詞和短語之間相關(guān)性的復(fù)雜統(tǒng)計(jì)模型。
這些模型可以用來生成自然語言,進(jìn)行特定語言任務(wù)的微調(diào)[3],或進(jìn)一步訓(xùn)練以更好地匹配“用戶意圖”[4]。例如,OpenAI的著名GPT-3[5]、更近期的ChatGPT[6]和Google的PaLM[7]這樣的LLMs能夠產(chǎn)生驚人的類人文本和對話;此外,盡管這些模型并沒有以推理為目的開展訓(xùn)練,一些研究認(rèn)為它們具有類人的推理能力[8]。
LLMs 如何完成這些壯舉對于普通人和科學(xué)家來說都是個(gè)謎。這些網(wǎng)絡(luò)內(nèi)部的運(yùn)作方式大都不透明,即使是構(gòu)建它們的研究人員對于如此巨大規(guī)模的系統(tǒng)也只有些許直觀感受。神經(jīng)科學(xué)家 Terrence Sejnowski 這樣描述LLM的出現(xiàn):“奇點(diǎn)降臨,似天外來客,忽紛沓而來,語四國方言。我們唯一清楚的是,LLMs 不是人類……它們的某些行為看起來是智能的,但如果不是人類的智能,又是什么呢?”[9]
盡管最先進(jìn)的LLMs很令人印象深刻,它們?nèi)匀蝗菀壮霈F(xiàn)不像人類的脆弱性和錯(cuò)誤。然而,這樣的網(wǎng)絡(luò)缺陷在其參數(shù)數(shù)量和訓(xùn)練數(shù)據(jù)集規(guī)模擴(kuò)大時(shí)顯著改進(jìn)[10],因而一些研究者認(rèn)為LLMs(或者其多模態(tài)版本)將在足夠大的網(wǎng)絡(luò)和訓(xùn)練數(shù)據(jù)集下實(shí)現(xiàn)人類級別的智能和理解能力,出現(xiàn)了一個(gè)AI新口號:“規(guī)模就是一切”[11, 12]。
上述主張是AI學(xué)界在LLMs討論中的一個(gè)流派。一部分人認(rèn)為這些網(wǎng)絡(luò)真正理解了語言,并且能夠以一種普遍的方式進(jìn)行推理(雖然“尚未”達(dá)到人類水平)。例如,谷歌的LaMDA系統(tǒng)通過預(yù)先訓(xùn)練文本,再微調(diào)對話的方式構(gòu)造了一個(gè)談吐流暢的對話系統(tǒng)[13],某AI研究者甚至認(rèn)為這樣的系統(tǒng)“對大量概念具備真實(shí)理解能力”[14],甚至“朝著有意識的方向邁進(jìn)”[15]。
另一位機(jī)器語言專家將LLMs視為通向一般人類水平AI的試金石:“一些樂觀研究者認(rèn)為,我們見證了具有一定普遍智能程度的知識注入系統(tǒng)誕生”[16]。另一些人士認(rèn)為,LLMs很可能捕捉到了意義的重要方面,而且其工作方式近似于人類認(rèn)知的一個(gè)引人注目的解釋,即意義來源于概念角色。”[17]。反對者被掛上“AI否認(rèn)主義”標(biāo)簽[18]。
另一方面,有人認(rèn)為盡管像GPT-3或LaMDA這樣的大型預(yù)訓(xùn)練模型的輸出很流利,但仍然不能具備理解能力,因?yàn)樗鼈儧]有世界的經(jīng)驗(yàn)或思維模式;LLMs的文本預(yù)測訓(xùn)練只是學(xué)會了語言的形式,而不是意義[19-21]。
最近一篇文章認(rèn)為:“即使從現(xiàn)在開始一直訓(xùn)練到宇宙熱寂,單憑語言訓(xùn)練的系統(tǒng)永遠(yuǎn)也不會逼近人類智能,而且這些系統(tǒng)注定只能擁有膚淺的理解,永遠(yuǎn)無法逼近我們在思考上的全面性”[22]。還有學(xué)者認(rèn)為,把“智能”、“智能體”和“理解”等概念套用在LLMs身上是不對的,因?yàn)長LMs更類似于圖書館或百科全書,是在打包人類的知識存儲庫,而不是智能體[23]。
例如,人類知道“撓癢癢”會讓我們笑,是因?yàn)槲覀冇猩眢w。LLMs可以使用“撓癢癢”這個(gè)詞,但它顯然從未有過這種感覺。理解撓癢癢不是兩個(gè)詞之間的映射,而是詞和感覺之間的映射。
那些持“LLMs無法真正理解”立場的人認(rèn)為,我們驚訝的不是LLMs流暢程度本身,而是流暢程度隨模型規(guī)模的增長超乎直覺這件事情。任何將理解或意識歸因于LLMs的人都是“伊萊扎效應(yīng)(Eliza effect)”的受害者[24]?!耙寥R扎效應(yīng)”是指我們?nèi)祟悆A向于將理解和代理能力歸因于具有即使是微弱的人類語言或行為跡象的機(jī)器,得名于Joseph Weizenbaum在1960年代開發(fā)的聊天機(jī)器人“Eliza”,盡管非常簡單,仍然欺騙了人們相信它理解了他們[25]。
2022年對自然語言處理領(lǐng)域活躍學(xué)者的一項(xiàng)調(diào)查亦佐證了這場討論的觀點(diǎn)分歧。其中一項(xiàng)調(diào)查內(nèi)容是詢問受訪者是否同意以下關(guān)于LLMs是否在原則上理解語言的說法:“一些僅在文本上訓(xùn)練的生成模型(即語言模型),在給定足夠的數(shù)據(jù)和計(jì)算資源的情況下,可以在某些非平凡意義上理解自然語言?!?80人的答案幾乎一半(51%)對一半(49%)[26]。
支持者佐證當(dāng)前LLMs具備理解能力的重要依據(jù)是模型能力表現(xiàn):既包括對模型根據(jù)提示詞生成文本的主觀質(zhì)量判斷(盡管這種判斷可能容易受到Eliza效應(yīng)的影響),亦包括在用于評估語言理解和推理能力的基準(zhǔn)數(shù)據(jù)集客觀評價(jià)。例如,評估LLMs的兩個(gè)常用基準(zhǔn)數(shù)據(jù)集是通用語言理解評估(GLUE)[27]及其后繼者SuperGLUE[28],它們包括大規(guī)模的數(shù)據(jù)集和任務(wù),如“文本蘊(yùn)含”(給定兩個(gè)句子,第二個(gè)句子的意思是否可以從第一個(gè)句子推斷出來?),“情景含義”(在兩個(gè)不同的句子中,給定的詞語是否有相同的意義?)和邏輯回答等。
OpenAI的GPT-3(具有1750億個(gè)參數(shù))在這些任務(wù)上表現(xiàn)出人意料之外的好[5],而Google的PaLM(具有5400億個(gè)參數(shù))在這些任務(wù)上表現(xiàn)得更好[7],能夠達(dá)到甚至超越人類在相同任務(wù)上的表現(xiàn)。?
機(jī)器理解必須重現(xiàn)人類理解嗎?
這些結(jié)果對LLMs的理解有何啟示?從“泛化語言理解”,“自然語言推理”,“閱讀理解”和“常識推理”等術(shù)語的選擇不難看出,上述基準(zhǔn)數(shù)據(jù)集的測試暗含機(jī)器必須重現(xiàn)人類理解方式的前提假設(shè)。
但這是“理解”必須的嗎?并非一定如此。以“論證推理理解任務(wù)”基準(zhǔn)評估為例[29],在每個(gè)任務(wù)示例中,都會給出一個(gè)自然語言的“論據(jù)”,以及兩個(gè)陳述句;任務(wù)是確定哪個(gè)陳述句與論據(jù)一致,如下例所示:
論點(diǎn):罪犯應(yīng)該有投票權(quán)。一個(gè)在17歲時(shí)偷了一輛車的人不應(yīng)該被終身剝奪成為完整公民的權(quán)利。
推斷A:盜竊汽車是一項(xiàng)重罪。
推斷B:盜竊汽車不是一項(xiàng)重罪。
BERT在這項(xiàng)基準(zhǔn)任務(wù)中獲得了近似人類的表現(xiàn)[31]。或許我們能夠由此得出結(jié)論,即BERT可以像人類一樣理解自然語言。但一個(gè)研究小組發(fā)現(xiàn),在推斷語句中出現(xiàn)的某些線索詞(例如“not”)能夠輔助模型預(yù)測出正確答案。當(dāng)研究人員變換數(shù)據(jù)集來避免這些線索詞出現(xiàn)時(shí),BERT的表現(xiàn)性能變得和隨機(jī)猜測無異。
這是一個(gè)明顯的依靠捷徑學(xué)習(xí)(shortcut learning)的例子——一個(gè)在機(jī)器學(xué)習(xí)中經(jīng)常被提及的現(xiàn)象,即學(xué)習(xí)系統(tǒng)通過分析數(shù)據(jù)集中的偽相關(guān)性,而不是通過類人理解(humanlike understanding),來獲得在特定基準(zhǔn)任務(wù)上的良好表現(xiàn)[32-35]。
通常情況下,這種相關(guān)性對于執(zhí)行相同任務(wù)的人類來說表現(xiàn)得并不明顯。雖然捷徑學(xué)習(xí)現(xiàn)象在評估語言理解和其他人工智能模型的任務(wù)中已經(jīng)被發(fā)現(xiàn),但仍可能存在很多未被發(fā)現(xiàn)的“捷徑”存在。像谷歌的LaMDA和PaLM這種擁有千億參數(shù)規(guī)模、在近萬億的文本數(shù)據(jù)上進(jìn)行訓(xùn)練的預(yù)訓(xùn)練語言模型,擁有強(qiáng)大的編碼數(shù)據(jù)相關(guān)性的能力。
因此,用于評估人類理解能力的基準(zhǔn)任務(wù)或許對這類模型評估來說并不適用[36-38]。對于大規(guī)模LLMs(以及LLMs可能的衍生模型)來說,通過復(fù)雜的統(tǒng)計(jì)相關(guān)性計(jì)算能夠讓模型繞開類人理解能力,獲得近乎完美的模型表現(xiàn)。
雖然“類人理解”一詞沒有嚴(yán)格的定義,但它本質(zhì)上并不是基于當(dāng)下LLMs所學(xué)習(xí)的這類龐大的統(tǒng)計(jì)模型;相反,它基于概念——外部類別、情況和事件的內(nèi)部心智模型,以及人類自身的內(nèi)部狀態(tài)和“自我”的內(nèi)部心智模型。對于人類來說,理解語言(以及其他非語言信息)依賴于對語言(或其他信息)表達(dá)之外的概念的掌握,并非局限于理解語言符號的統(tǒng)計(jì)屬性。
事實(shí)上,在認(rèn)知科學(xué)領(lǐng)域的過往研究歷史中,一直強(qiáng)調(diào)對概念本質(zhì)的理解以及理解力是如何從條理清晰、層次分明且包含潛在因果關(guān)系的概念中產(chǎn)生的。這種理解力模型幫助人類對過往知識和經(jīng)驗(yàn)進(jìn)行抽象化以做出穩(wěn)健的預(yù)測、概括和類比;或是進(jìn)行組合推理、反事實(shí)推理;或是積極干預(yù)現(xiàn)實(shí)世界以檢驗(yàn)假設(shè);又或是向他人闡述自己所理解的內(nèi)容。
毫無疑問,盡管有些規(guī)模越來越大的LLMs零星地表現(xiàn)出近似人類的理解能力,但當(dāng)前的人工智能系統(tǒng)并不具備這些能力,包括最前沿的LLMs。有人認(rèn)為,這種理解能力能夠賦予人類純統(tǒng)計(jì)模型無法獲得的能力。
盡管大模型展現(xiàn)出了非凡的形式語言能力(formal linguistic competence)——即產(chǎn)生語法流利、類人語言的能力,它仍然缺乏基于概念理解的類人功能語言能力(humanlike functional language abilities)——即在現(xiàn)實(shí)世界中正確理解和使用語言的能力。有趣的是,物理學(xué)研究中也有類似的現(xiàn)象,即數(shù)學(xué)技法的成功運(yùn)用和這種功能理解能力之間的矛盾。
例如,一直以來關(guān)于量子力學(xué)的一個(gè)爭議是,它提供了一種有效的計(jì)算方法,而沒有提供概念性理解。
關(guān)于概念的本質(zhì)理解一直以來是學(xué)界爭論的主題之一。對于概念在多大程度上是領(lǐng)域特定的和先天的,而不是更通用的和習(xí)得的[55-60],或者概念在多大程度上是基于具象隱喻的,并通過動(dòng)態(tài)的、基于情境的模擬在大腦中呈現(xiàn)[64],又或者概念在何種條件下是由語言[65–67]、社會學(xué)習(xí)[68–70]和文化支撐的[71–73],研究人員在這些方面存在分歧。
盡管存在以上爭論,概念——就像前文所述的那樣以因果心智模型的形式存在——一直以來被認(rèn)為是人類認(rèn)知能力的理解單元。毫無疑問,縱觀人類理解能力的發(fā)展軌跡,不論是個(gè)人理解還是集體理解,都可以抽象為對世界進(jìn)行高度壓縮的、基于因果關(guān)系的模型,類似于從托勒密的行星公轉(zhuǎn)理論到開普勒的橢圓軌道理論,再到牛頓根據(jù)引力對行星運(yùn)動(dòng)的簡明和因果關(guān)系的解釋。
與機(jī)器不同的是,人類似乎在科學(xué)研究以及日常生活中都有追求這種理解形式的強(qiáng)烈內(nèi)驅(qū)力。我們可以將這種動(dòng)力描述為需要很少的數(shù)據(jù),極簡的模型,明確的因果依賴性和強(qiáng)大的機(jī)械直覺。
關(guān)于LLMs理解能力的爭論主要集中以下幾個(gè)方面:
1)這些模型系統(tǒng)的理解能力是否僅僅為一種類別錯(cuò)誤?(即,將語言符號之間的聯(lián)系混淆為符號與物理、社會或心智體驗(yàn)之間的聯(lián)系)。簡而言之,這些模型系統(tǒng)永遠(yuǎn)無法獲得類人的理解能力嗎?
或者,相反地,2)這些模型系統(tǒng)(或者它們近期的衍生模型)真的會在缺乏現(xiàn)實(shí)世界經(jīng)驗(yàn)的情況下,創(chuàng)造出對人類理解來說至關(guān)重要的大量的基于概念的心智模型嗎?如果是的話,增大模型規(guī)模是否會創(chuàng)造出更好的概念?
或者,3)如果這些模型系統(tǒng)無法創(chuàng)造這樣的概念,那么它們難以想象的龐大的統(tǒng)計(jì)相關(guān)性系統(tǒng)是否能產(chǎn)生與人類理解功能相當(dāng)?shù)哪芰δ??又或者,這是否意味著人類無法達(dá)到的新形式的高階邏輯能力成為可能?從這一角度上看,將這種相關(guān)性稱為“偽相關(guān)性”或質(zhì)疑“捷徑學(xué)習(xí)”現(xiàn)象是否仍然合適?將模型系統(tǒng)的行為視為一系列新興的、非人類的理解活動(dòng),而不是“沒有理解能力”,是否行得通?
這些問題已不再局限于抽象的哲學(xué)探討,而是涉及到人工智能系統(tǒng)在人類日常生活中扮演的越來越重要的角色所帶來的能力、穩(wěn)健性、安全性和倫理方面的非常現(xiàn)實(shí)的擔(dān)憂。
雖然各派研究者對于“LLMs理解能力”的爭論都有自身的見解,但目前用于獲得理解洞察力的基于認(rèn)知科學(xué)的方法不足以回答關(guān)于LLMs的這類問題。事實(shí)上,一些研究人員已經(jīng)將心理測試應(yīng)用于LLMs,這些測試最初是用來評估人類理解和推理機(jī)制的。
發(fā)現(xiàn)LLMs在某些情況下確實(shí)在心理理論測試[14, 75]中表現(xiàn)出類似人類的反應(yīng),以及在推理評估中表現(xiàn)出類似人類的能力和偏好 [76–78]。雖然這種測試被認(rèn)為是評估人類通用能力的替代性測試,但對人工智能模型系統(tǒng)來說可能并非如此。
一種新興的理解能力
正如前文所提到的,LLMs有一種難以解釋的能力,可以在訓(xùn)練數(shù)據(jù)和輸入中學(xué)習(xí)信息符號之間的相關(guān)性,并且可以使用這種相關(guān)性來解決問題。相比之下,人類似乎應(yīng)用了反映他們現(xiàn)實(shí)世界經(jīng)驗(yàn)的被壓縮的概念。當(dāng)把為人類設(shè)計(jì)的心理測試應(yīng)用于LLMs時(shí),其解釋結(jié)果往往依賴于對人類認(rèn)知的假設(shè),而這些假設(shè)對于模型來說可能根本不正確。
為了取得進(jìn)展,科學(xué)家們需要設(shè)計(jì)新的基準(zhǔn)任務(wù)和研究方法,以深入了解不同類型的智能和理解機(jī)制,包括我們已經(jīng)創(chuàng)造的“異類的、類似思維實(shí)體”(exotic, mind-like entities)[79] 的新形式,或許我們正在踏上通往挖掘“理解”本質(zhì)的正確道路上[80, 81]。
隨著關(guān)于LLMs理解能力的討論聲音越來越多,以及更多有能力的模型系統(tǒng)的出現(xiàn),這一切似乎都在強(qiáng)調(diào)未來有必要加強(qiáng)對于智能科學(xué)的研究,以便對人類和機(jī)器的更廣泛理解概念進(jìn)行理解。正如神經(jīng)科學(xué)家Terrence Sejnowski 所指出的,“專家們對LLMs智能的分歧表明,我們基于自然智能的傳統(tǒng)觀念是不夠充分的。[9]
”如果LLMs和其他模型成功地利用了強(qiáng)大的統(tǒng)計(jì)相關(guān)性,也許也可以被認(rèn)為是一種新興的“理解”能力,一種能夠?qū)崿F(xiàn)非凡的、超人的預(yù)測能力。比如DeepMind的AlphaZero和AlphaFold模型系統(tǒng) [82, 83],它們似乎分別為國際象棋和蛋白質(zhì)結(jié)構(gòu)預(yù)測領(lǐng)域帶來了一種來自“外星”的直覺形式[84, 85]。
因此可以這樣說,近年來在人工智能領(lǐng)域出現(xiàn)了具有新興理解模式的機(jī)器,這或許是一個(gè)更大的相關(guān)概念動(dòng)物園(zoo of related concepts)中的新物種。隨著我們在追求智能本質(zhì)的過程中所取得的研究進(jìn)展,這些新興的理解模式將不斷涌現(xiàn)。正如不同的物種適應(yīng)于不同的環(huán)境一樣,我們的智能系統(tǒng)也將更好地適應(yīng)于不同的問題。
依賴大量的歷史的編碼知識(encoded knowledge)的問題(強(qiáng)調(diào)模型性能表現(xiàn))將繼續(xù)青睞大規(guī)模的統(tǒng)計(jì)模型,如LLMs,而那些依賴有限知識和強(qiáng)大因果機(jī)制的問題將更青睞人類智能。未來的挑戰(zhàn)是開發(fā)出新的研究方法,以詳細(xì)揭示不同智能形式的理解機(jī)制,辨別它們的優(yōu)勢和局限性,并學(xué)習(xí)如何整合這些不同的認(rèn)知模式。?
參考文獻(xiàn)從略
本文作者:Melanie Mitchella, David C. Krakauera,范思雨、張?bào)K翻譯,文章來源:集智俱樂部,原文標(biāo)題:《圣塔菲學(xué)者:AI 大語言模型真的理解人類語言嗎?》
原文地址:https://www.pnas.org/doi/10.1073/pnas.2215907120
關(guān)鍵詞: