天天看熱訊:OpenAI首席科學家:AI幻覺是個大問題,但很有可能被「治愈」
Craig S. Smith 是《紐約時報》的前記者和高管,是「 Eye on AI 」播客的主持人。不久之前,他采訪了 OpenAI 的聯(lián)合創(chuàng)始人 Ilya Stutskever。本文是對此次采訪內容的整理,英文首發(fā)于 Forbes,機器之心經授權發(fā)布。
(相關資料圖)
當我們飛速邁向人工智能的未來時,很多評論家都在大聲質疑我們是否發(fā)展得太快?科技巨頭、研究者和投資者都似乎在瘋狂開發(fā)最先進的人工智能。很多人擔心他們是否考慮過 AI 帶來的風險呢?
這個問題并非完全無解??梢苑判模袛?shù)百個聰明的頭腦正在考慮反烏托邦可能性以及避免它們的方法。但未來就是未知,ChatGPT 這種強大新技術的影響與互聯(lián)網出現(xiàn)時一樣難以想象——有好的,也會有壞的。未來也肯定會有強大的人工智能系統(tǒng),我們的孫子輩甚至會有更加強大的人工智能。這是無法阻止的。
我曾與 OpenAI 的聯(lián)合創(chuàng)始人 Ilya Stutskever 談過這項新技,就在 OpenAI 的巨型人工智能系統(tǒng) GPT-4 發(fā)布之前。
GPT 是生成式預訓練 Transformer(Generative Pre-trained Transformer)的縮寫,這三個重要的單詞可以幫助我們理解這個荷馬史詩般的波呂斐摩斯:
Transformer 是這個巨型系統(tǒng)核心算法的名稱、預訓練(Pre-trained 是指通過大量文本語料庫進行訓練,讓它理解語言的基本模式和關系——簡而言之,讓它了解世界。生成( Generative ),意味著這種人工智能可以從這個基礎知識中創(chuàng)造新的思想。
人工智能已經接管了我們生活的許多方面。但即將到來的AI更先進、 也更強大。我們正在進入未知的領域。值得花一點時間考慮一下這意味著什么。但同樣重要的是不要反應過度,不要像烏龜一樣躲避正照耀我們的陽光。在荷馬的史詩《奧德賽》中,獨眼巨人波呂斐摩斯把奧德修斯和他的船員困在他的洞穴里,打算吃掉他們。但是奧德修斯設法讓這個巨人失明并逃脫了。人工智能不會吃掉我們。
Ilya Sutskever 是 OpenAI 的聯(lián)合創(chuàng)始人和首席科學家,是大型語言模型 GPT-4 和 ChatGPT 的核心成員之一,可以毫不夸張地說,他正在改變世界。
這不是 Ilya 第一次改變世界了。他是卷積神經網絡 AlexNet 的主要推動力量,其驚人的性能在 2012 年震驚了科學界,引發(fā)了深度學習革命。
以下是對話的編輯記錄。
CRAIG:Ilya,我知道你出生在俄羅斯。你是因為對計算機科學感興趣還是其他原因,比如神經科學,才進入這個領域的呢?
ILYA:確實,我出生在俄羅斯。我在以色列長大,然后少年時,我的家人移民到了加拿大。我父母說我從小就對人工智能感興趣。我也對意識非常感興趣,它讓我感到非常不安,我很好奇什么可以幫助我更好地理解它。
我17歲時就開始和 Geoff Hinton(深度學習的創(chuàng)始人之一,當時是多倫多大學的教授)一起工作了。因為我們搬到了加拿大,我立刻就能加入多倫多大學。我真的很想做機器學習,因為它是人工智能最重要、也很難企及的部分。
我們現(xiàn)在認為計算機可以學習,但是在 2003 年,我們認為計算機無法學習。當時人工智能的最大成就是 Deep Blue( IBM 的)象棋引擎(在1997 年擊敗世界冠軍加里·卡斯帕羅夫)。?
這只是用一種簡單的方法來確定一個位置是否比另一個位置更好,不可能適用于現(xiàn)實世界,因為沒有學習。學習是一個巨大的謎團,很感興趣。我運氣很好,Geoff Hinton 正好是大學的教授,一拍即合,我加入了他們的團隊。
那么智能是如何工作的呢?我們如何讓計算機變得更加智能?我的意圖很明確,就是為人工智能做出非常小但真正的貢獻。能否理解智能如何工作并為之做出貢獻?這就是我的最初動機。這幾乎是 20 年前的事了。
簡而言之,我意識到,如果你在一個足夠大的數(shù)據集上訓練一個大型深度神經網絡來完成某些復雜任務,比如視覺任務,你必然會成功。這樣做的邏輯是不可約的( irreducible );我們知道人類的大腦可以解決這些任務,并且可以快速地解決它們。而人類的大腦只是一個由慢神經元構成的神經網絡。
所以,我們只需要拿一個較小但相關的神經網絡,用數(shù)據來訓練它。計算機內部最好的神經網絡將與我們大腦中執(zhí)行此任務的神經網絡相關。
CRAIG:2017年?Attention Is All You Need?論文問世,介紹了自我注意和 transformers。GPT項目是在什么時候開始的?你對 transformers有什么直覺嗎?
ILYA:從 OpenAI 成立之初起,我們就在探索一個想法,即預測下一個東西就是你所需的一切。我們用當時更受限制的神經網絡探索這個想法,如果你有一個神經網絡可以預測下一個單詞,它將解決無監(jiān)督學習。所以,在 GPT之前,無監(jiān)督學習被認為是機器學習的圣杯。
現(xiàn)在它已經被完全解決,甚至沒有人談論它,但它曾是一個神秘的問題,因此我們在探索這個想法。我非常興奮,因為預測下一個單詞足夠好,將為你提供無監(jiān)督學習。
但我們的神經網絡無法勝任此任務。我們使用的是遞歸神經網絡。當 transformer 出現(xiàn)時,就在論文發(fā)表的第二天,我們立即意識到,transformers 解決了遞歸神經網絡的局限性,解決了學習長程依賴關系( long-term dependencies)的問題。
這是一個技術問題。我們立即轉向 transformers。因此,新生的 GPT 項目開始使用transformer。它開始工作得更好,當你不斷讓它變得更大后。
這就導致最終的 GPT-3,基本上是我們今天所處的位置。
CRAIG:目前既有大型語言模型的局限性在于它們的知識被包含在訓練它們的語言中。而大部分人類知識,我認為每個人都會同意,是非語言的。
它們的目標是滿足提示的統(tǒng)計意義上的一致性,對語言所關聯(lián)的現(xiàn)實并沒有潛在的理解。我問 ChatGPT 關于我自己的情況。它知道我是一名記者,在不同的報紙工作過,但它不停地談論我從未獲得過的獎項,讀起來很漂亮,但很少與潛在的現(xiàn)實聯(lián)系起來。在你未來的研究中有沒有什么方法來解決這個問題?
ILYA:我們有多大把握認為今天看到的這些局限性兩年后仍將存在?我并不那么有信心。我還想對一個問題的某一部分發(fā)表評論,即這些模型只是學習統(tǒng)計規(guī)律,因此它們不真正知道世界的本質是什么。
我的觀點與此不同。換句話說,我認為學習統(tǒng)計規(guī)律比人們看到的更重要。
預測也是一個統(tǒng)計現(xiàn)象。但是要進行預測,需要理解生成數(shù)據的基本過程,需要了解更多關于產生數(shù)據的世界的知識。
我認為,隨著我們的生成模型變得異常優(yōu)秀,它們對世界及其許多微妙之處的理解將達到令人震驚的程度。它通過文本的鏡頭看到世界,試圖通過投射在互聯(lián)網上的文本影子了解更多關于世界的信息。
但是,這些文本已經表達了世界。舉個最近的例子,很有意思。我們都聽說過Sydney(前不久,微軟利用 OpenAI 的新技術推出了新版必應搜索引擎,其中內置了初始代號為 Sydney 的聊天機器人?!g者注)是它(必應)的化身。當用戶告訴 Sydney 谷歌是比必應更好的搜索引擎時,Sydney 變得好斗和攻擊性。
如何思考這種現(xiàn)象?這意味著什么?您可以說,它只是預測人們會做什么,人們確實會這樣做,這是真的。但也許我們現(xiàn)在正在達到一個臨界點,開始利用心理學語言來理解這些神經網絡的行為。
現(xiàn)在讓我們來談談這些神經網絡的局限性。事實上,這些神經網絡有產生幻覺的傾向。這是因為語言模型非常擅長學習世界知識,但在生成良好輸出方面則略顯不足。這其中存在一些技術原因。語言模型在學習各種思想、概念、人物、過程等世界知識方面表現(xiàn)非常出色,但其輸出卻沒有達到預期的水平,或者說還有進一步提升的空間。
因此,對于像 ChatGPT 這樣的語言模型,我們引入了一種額外的強化學習訓練過程,稱為「人類反饋強化學習」( Reinforcement Learning from Human Feedback,RLHF )。
在預訓練過程中,我們希望它能夠學習關于世界的一切。而在來自人類反饋的強化學習中,我們更關心輸出結果。如果輸出結果不恰當,就不要再這樣做了。這樣它就能夠快速學會生成良好的輸出。但這種良好的輸出水平并不在語言模型預訓練過程中出現(xiàn)。
至于幻覺,它有時會胡言亂語,這也大大限制了它們的用途。但我非常希望通過簡單改進后續(xù)的人類反饋強化學習,就能教它不再產生幻覺。你可能會問,它真的能學會嗎?我的答案是,讓我們試試看吧。
我們現(xiàn)在的做法是雇人教會 ChatGPT 如何表現(xiàn)。你只需要與它互動,它就能從你的反應中推斷出你想要的東西,比如,你對輸出結果不滿意。因此,它應該在下一次做些不同的事情。我認為這種方法很有可能(a quite a high chance)完全解決幻覺的問題。
CRAIG:Yann LeCun( Facebook 首席人工智能科學家、深度學習先驅之一)認為,大型語言模型缺少可參考的、非語言的基礎世界模型。我想聽聽你對此的看法,以及你是否已經進行了相關探索。
ILYA: 我審查過 Yann LeCun 的提案,用不同語言表達了很多想法,可能與當前的范式有一些微小的差異,但在我看來,它們不是很顯著。
他的第一個主張是一個系統(tǒng)需要有多模態(tài)理解,這樣它就不只是從文本中了解世界。我對此的評論是,多模式理解確實是可取的,因為你對世界了解得更多,你對人了解得更多,你對他們的狀況了解得更多,系統(tǒng)將能夠更好地理解它應該解決的任務是什么,以及他們想要什么。
我們在這方面做了很多工作,最引人注目的是我們已經完成的兩個主要神經網絡。一個叫 Clip,一個叫 Dall-E。它們都朝著這個多模態(tài)方向移動。但我認為這種情況不是非此即彼的:如果你沒有視覺,不能從視覺上或視頻上理解世界,那么事情就不會成功。
我想要證明這一點。有些東西從圖像和圖表中更容易學習,但我認為仍然可以只從文本中學習,只是速度更慢。想想顏色的概念。
當然,一個人不能只從文本中學習顏色的概念,但是當你看「嵌入」時——我需要繞一個小彎子來解釋「嵌入」的概念。每個神經網絡都通過「嵌入」表示單詞、句子、概念,這些「嵌入」是高維向量。
我們可以看一下這些高維向量,看看它們彼此之間有什么相似之處;神經網絡如何看待這個概念或那個概念?所以,機器可以通過嵌入向量,知道紫色和藍色比紅色更相似,紅色和橙色比紫色更相似。它只通過文本就知道這些。這是怎么做到的呢?
如果你看得見,就會立刻看到顏色差異。如果只有文字,你就需要更長時間,也許你知道如何說話,也理解語法,單詞和語法,但直到很久以后才真正開始理解顏色。所以,這就是我關于多模態(tài)性必要性的觀點:它不是必要的,但肯定是有用的。這是一個值得追求的方向。我只是認為它不是非此即彼的。
這也是為什么(LeCun 的)論文中聲稱,最大挑戰(zhàn)之一是預測具有不確定性的高維向量。
但我發(fā)現(xiàn)令人驚訝的是,在這篇論文中未被承認的是,當前的自回歸 transformers ?( autoregressive transformers )已經具有這種性質。
舉兩個例子。一個是給定書中的一頁,預測書中的下一頁。接下來可能會有很多頁。這是一個非常復雜的高維空間,他們處理得很好。這同樣適用于圖像。這些自回歸 transformers 在圖像上工作得非常完美。
例如,和 OpenAI 一樣,我們在 iGPT 上做了一些工作。我們只是拿了一個 transformers 把它應用到像素上,表現(xiàn)得非常好,能以非常復雜和微妙的方式生成圖像。Dall-E 1 也是一樣的。
所以,這篇論文強調現(xiàn)有方法無法預測高維分布的部分,我的觀點是(它們)肯定是可以的。
CRAIG:按你說的,有一群人類訓練師正在使用 ChatGPT 或一個大型語言模型來指導它有效地強化學習,直覺上,這不像是一種教會模型掌握語言潛在現(xiàn)實的有效方法。
ILYA:我不同意這個問題的措辭。我認為,我們預先訓練過的模型已經知道了它們需要知道的關于潛在現(xiàn)實的一切。他們已經有了這些語言知識,也有大量關于世界上存在的產生這種語言的過程的知識。
大型生成模型從他們的數(shù)據中學到的東西——在這種情況下,大型語言模型——是產生這些數(shù)據的真實世界過程的壓縮表示,這不僅意味著人和他們的想法,他們的感受,還意味著人們所處的條件以及他們之間存在的互動。一個人可能處于不同的情境,而所有這些情境信息都是壓縮過程的一部分,由神經網絡表示,以生成文本。語言模型越好,生成模型越好,保真度越高,它就能更好地捕捉這個過程。
現(xiàn)在,正如你所描述的那樣,這些訓練師的確也在使用人工智能輔助。這些人不是獨自行動的,他們正在使用我們的工具,而工具則承擔了大部分工作。但是,你確實需要有人來監(jiān)督和審核他們的行為,因為你希望最終實現(xiàn)非常高的可靠性。
確實有很多動機使其盡可能高效和精確,這樣得到的語言模型將盡可能表現(xiàn)良好。
ILYA:是的,這些人類訓練師正在教授模型所需的行為。他們使用人工智能系統(tǒng)的方式不斷提高,因此他們自己的效率也在不斷提高。
這跟人類教育沒什么不同。我們需要額外培訓,確保模型知道幻覺不可行。人類或者其他方法能夠教會它。
某些因素應該會奏效。我們很快就會找到答案。
CRAIG: 你現(xiàn)在的研究方向是什么?
ILYA: 我不能詳細談論我正在從事的具體研究,但是我可以簡單地提到一些廣義的研究方向。我非常有興趣使這些模型更加可靠、可控,讓它們從教材數(shù)據中更快地學習,減少指導。讓它們不會出現(xiàn)幻覺。
CRAIG: 如果你有足夠的數(shù)據和足夠大的模型,能否為一些看似無法解決的沖突找出讓每個人都滿意的最佳解決方案?你是否思考過這將如何幫助人類管理社會?
ILYA:這是一個很大的問題,因為這是一個更加面向未來的問題。我認為,我們的模型在許多方面將比現(xiàn)在強大得多。
政府將如何使用這項技術作為各種建議的來源,目前還無法預測。關于民主的問題,我認為未來可能發(fā)生的一件事是,因為這些神經網絡將無處不在,對社會具有巨大影響力,因此可能會探索出更讓人滿意的民主方式,比如每個公民向它們輸入一些信息,包括他們希望事態(tài)如何發(fā)展等。這可能是一種非常高度的民主方式,從每個公民那里獲得更多信息,這些信息被聚合起來,然后搞清楚我們到底希望系統(tǒng)如何運作?,F(xiàn)在它引發(fā)了很多問題,但這是未來可能發(fā)生的一件事。
(聚合龐大信息意味著模型可能分析某種情境下的所有變量,那么)分析所有變量意味著什么呢?最終你需要找出一些真正重要的變量,進行深入研究。這就像為了深入了解,我可以讀一百本書,也可以仔細讀一本書。同時,我認為從根本上說,理解所有事情是不可能的。讓我們舉一些簡單的例子。
任何時候,社會上出現(xiàn)任何復雜情況,即使是在一個公司,一個中等規(guī)模公司,它已經超出了任何一個人的能力范圍。如果以正確方式構建人工智能系統(tǒng),它就在各種情境下極大地幫助到我們。
作者 |?Craig S. Smith
編譯 |ChatGPT-4 、吳昕
關鍵詞: