人妻夜夜爽天天爽三区麻豆AV网站,水中色av综合,中国浓毛少妇毛茸茸,国产精品国产三级国产av剧情

天天看熱訊:OpenAI首席科學(xué)家:AI幻覺是個大問題,但很有可能被「治愈」

Craig S. Smith 是《紐約時報》的前記者和高管,是「 Eye on AI 」播客的主持人。不久之前,他采訪了 OpenAI 的聯(lián)合創(chuàng)始人 Ilya Stutskever。本文是對此次采訪內(nèi)容的整理,英文首發(fā)于 Forbes,機器之心經(jīng)授權(quán)發(fā)布。


(相關(guān)資料圖)

當(dāng)我們飛速邁向人工智能的未來時,很多評論家都在大聲質(zhì)疑我們是否發(fā)展得太快?科技巨頭、研究者和投資者都似乎在瘋狂開發(fā)最先進的人工智能。很多人擔(dān)心他們是否考慮過 AI 帶來的風(fēng)險呢?

這個問題并非完全無解??梢苑判?,有數(shù)百個聰明的頭腦正在考慮反烏托邦可能性以及避免它們的方法。但未來就是未知,ChatGPT 這種強大新技術(shù)的影響與互聯(lián)網(wǎng)出現(xiàn)時一樣難以想象——有好的,也會有壞的。未來也肯定會有強大的人工智能系統(tǒng),我們的孫子輩甚至?xí)懈訌姶蟮娜斯ぶ悄堋_@是無法阻止的。

我曾與 OpenAI 的聯(lián)合創(chuàng)始人 Ilya Stutskever 談過這項新技,就在 OpenAI 的巨型人工智能系統(tǒng) GPT-4 發(fā)布之前。

GPT 是生成式預(yù)訓(xùn)練 Transformer(Generative Pre-trained Transformer)的縮寫,這三個重要的單詞可以幫助我們理解這個荷馬史詩般的波呂斐摩斯:

Transformer 是這個巨型系統(tǒng)核心算法的名稱、預(yù)訓(xùn)練(Pre-trained 是指通過大量文本語料庫進行訓(xùn)練,讓它理解語言的基本模式和關(guān)系——簡而言之,讓它了解世界。生成( Generative ),意味著這種人工智能可以從這個基礎(chǔ)知識中創(chuàng)造新的思想。

人工智能已經(jīng)接管了我們生活的許多方面。但即將到來的AI更先進、 也更強大。我們正在進入未知的領(lǐng)域。值得花一點時間考慮一下這意味著什么。但同樣重要的是不要反應(yīng)過度,不要像烏龜一樣躲避正照耀我們的陽光。在荷馬的史詩《奧德賽》中,獨眼巨人波呂斐摩斯把奧德修斯和他的船員困在他的洞穴里,打算吃掉他們。但是奧德修斯設(shè)法讓這個巨人失明并逃脫了。人工智能不會吃掉我們。

Ilya Sutskever 是 OpenAI 的聯(lián)合創(chuàng)始人和首席科學(xué)家,是大型語言模型 GPT-4 和 ChatGPT 的核心成員之一,可以毫不夸張地說,他正在改變世界。

這不是 Ilya 第一次改變世界了。他是卷積神經(jīng)網(wǎng)絡(luò) AlexNet 的主要推動力量,其驚人的性能在 2012 年震驚了科學(xué)界,引發(fā)了深度學(xué)習(xí)革命。

以下是對話的編輯記錄。

Ilya Sutskever,OpenAI 的聯(lián)合創(chuàng)始人和首席科學(xué)家

CRAIG:Ilya,我知道你出生在俄羅斯。你是因為對計算機科學(xué)感興趣還是其他原因,比如神經(jīng)科學(xué),才進入這個領(lǐng)域的呢?

ILYA:確實,我出生在俄羅斯。我在以色列長大,然后少年時,我的家人移民到了加拿大。我父母說我從小就對人工智能感興趣。我也對意識非常感興趣,它讓我感到非常不安,我很好奇什么可以幫助我更好地理解它。

我17歲時就開始和 Geoff Hinton(深度學(xué)習(xí)的創(chuàng)始人之一,當(dāng)時是多倫多大學(xué)的教授)一起工作了。因為我們搬到了加拿大,我立刻就能加入多倫多大學(xué)。我真的很想做機器學(xué)習(xí),因為它是人工智能最重要、也很難企及的部分。

我們現(xiàn)在認(rèn)為計算機可以學(xué)習(xí),但是在 2003 年,我們認(rèn)為計算機無法學(xué)習(xí)。當(dāng)時人工智能的最大成就是 Deep Blue( IBM 的)象棋引擎(在1997 年擊敗世界冠軍加里·卡斯帕羅夫)。?

這只是用一種簡單的方法來確定一個位置是否比另一個位置更好,不可能適用于現(xiàn)實世界,因為沒有學(xué)習(xí)。學(xué)習(xí)是一個巨大的謎團,很感興趣。我運氣很好,Geoff Hinton 正好是大學(xué)的教授,一拍即合,我加入了他們的團隊。

那么智能是如何工作的呢?我們?nèi)绾巫層嬎銠C變得更加智能?我的意圖很明確,就是為人工智能做出非常小但真正的貢獻(xiàn)。能否理解智能如何工作并為之做出貢獻(xiàn)?這就是我的最初動機。這幾乎是 20 年前的事了。

簡而言之,我意識到,如果你在一個足夠大的數(shù)據(jù)集上訓(xùn)練一個大型深度神經(jīng)網(wǎng)絡(luò)來完成某些復(fù)雜任務(wù),比如視覺任務(wù),你必然會成功。這樣做的邏輯是不可約的( irreducible );我們知道人類的大腦可以解決這些任務(wù),并且可以快速地解決它們。而人類的大腦只是一個由慢神經(jīng)元構(gòu)成的神經(jīng)網(wǎng)絡(luò)。

所以,我們只需要拿一個較小但相關(guān)的神經(jīng)網(wǎng)絡(luò),用數(shù)據(jù)來訓(xùn)練它。計算機內(nèi)部最好的神經(jīng)網(wǎng)絡(luò)將與我們大腦中執(zhí)行此任務(wù)的神經(jīng)網(wǎng)絡(luò)相關(guān)。

CRAIG:2017年?Attention Is All You Need?論文問世,介紹了自我注意和 transformers。GPT項目是在什么時候開始的?你對 transformers有什么直覺嗎?

ILYA:從 OpenAI 成立之初起,我們就在探索一個想法,即預(yù)測下一個東西就是你所需的一切。我們用當(dāng)時更受限制的神經(jīng)網(wǎng)絡(luò)探索這個想法,如果你有一個神經(jīng)網(wǎng)絡(luò)可以預(yù)測下一個單詞,它將解決無監(jiān)督學(xué)習(xí)。所以,在 GPT之前,無監(jiān)督學(xué)習(xí)被認(rèn)為是機器學(xué)習(xí)的圣杯。

現(xiàn)在它已經(jīng)被完全解決,甚至沒有人談?wù)撍?,但它曾是一個神秘的問題,因此我們在探索這個想法。我非常興奮,因為預(yù)測下一個單詞足夠好,將為你提供無監(jiān)督學(xué)習(xí)。

但我們的神經(jīng)網(wǎng)絡(luò)無法勝任此任務(wù)。我們使用的是遞歸神經(jīng)網(wǎng)絡(luò)。當(dāng) transformer 出現(xiàn)時,就在論文發(fā)表的第二天,我們立即意識到,transformers 解決了遞歸神經(jīng)網(wǎng)絡(luò)的局限性,解決了學(xué)習(xí)長程依賴關(guān)系( long-term dependencies)的問題。

這是一個技術(shù)問題。我們立即轉(zhuǎn)向 transformers。因此,新生的 GPT 項目開始使用transformer。它開始工作得更好,當(dāng)你不斷讓它變得更大后。

這就導(dǎo)致最終的 GPT-3,基本上是我們今天所處的位置。

CRAIG:目前既有大型語言模型的局限性在于它們的知識被包含在訓(xùn)練它們的語言中。而大部分人類知識,我認(rèn)為每個人都會同意,是非語言的。

它們的目標(biāo)是滿足提示的統(tǒng)計意義上的一致性,對語言所關(guān)聯(lián)的現(xiàn)實并沒有潛在的理解。我問 ChatGPT 關(guān)于我自己的情況。它知道我是一名記者,在不同的報紙工作過,但它不停地談?wù)撐覐奈传@得過的獎項,讀起來很漂亮,但很少與潛在的現(xiàn)實聯(lián)系起來。在你未來的研究中有沒有什么方法來解決這個問題?

ILYA:我們有多大把握認(rèn)為今天看到的這些局限性兩年后仍將存在?我并不那么有信心。我還想對一個問題的某一部分發(fā)表評論,即這些模型只是學(xué)習(xí)統(tǒng)計規(guī)律,因此它們不真正知道世界的本質(zhì)是什么。

我的觀點與此不同。換句話說,我認(rèn)為學(xué)習(xí)統(tǒng)計規(guī)律比人們看到的更重要。

預(yù)測也是一個統(tǒng)計現(xiàn)象。但是要進行預(yù)測,需要理解生成數(shù)據(jù)的基本過程,需要了解更多關(guān)于產(chǎn)生數(shù)據(jù)的世界的知識。

我認(rèn)為,隨著我們的生成模型變得異常優(yōu)秀,它們對世界及其許多微妙之處的理解將達(dá)到令人震驚的程度。它通過文本的鏡頭看到世界,試圖通過投射在互聯(lián)網(wǎng)上的文本影子了解更多關(guān)于世界的信息。

但是,這些文本已經(jīng)表達(dá)了世界。舉個最近的例子,很有意思。我們都聽說過Sydney(前不久,微軟利用 OpenAI 的新技術(shù)推出了新版必應(yīng)搜索引擎,其中內(nèi)置了初始代號為 Sydney 的聊天機器人?!g者注)是它(必應(yīng))的化身。當(dāng)用戶告訴 Sydney 谷歌是比必應(yīng)更好的搜索引擎時,Sydney 變得好斗和攻擊性。

如何思考這種現(xiàn)象?這意味著什么?您可以說,它只是預(yù)測人們會做什么,人們確實會這樣做,這是真的。但也許我們現(xiàn)在正在達(dá)到一個臨界點,開始利用心理學(xué)語言來理解這些神經(jīng)網(wǎng)絡(luò)的行為。

現(xiàn)在讓我們來談?wù)勥@些神經(jīng)網(wǎng)絡(luò)的局限性。事實上,這些神經(jīng)網(wǎng)絡(luò)有產(chǎn)生幻覺的傾向。這是因為語言模型非常擅長學(xué)習(xí)世界知識,但在生成良好輸出方面則略顯不足。這其中存在一些技術(shù)原因。語言模型在學(xué)習(xí)各種思想、概念、人物、過程等世界知識方面表現(xiàn)非常出色,但其輸出卻沒有達(dá)到預(yù)期的水平,或者說還有進一步提升的空間。

因此,對于像 ChatGPT 這樣的語言模型,我們引入了一種額外的強化學(xué)習(xí)訓(xùn)練過程,稱為「人類反饋強化學(xué)習(xí)」( Reinforcement Learning from Human Feedback,RLHF )。

在預(yù)訓(xùn)練過程中,我們希望它能夠?qū)W習(xí)關(guān)于世界的一切。而在來自人類反饋的強化學(xué)習(xí)中,我們更關(guān)心輸出結(jié)果。如果輸出結(jié)果不恰當(dāng),就不要再這樣做了。這樣它就能夠快速學(xué)會生成良好的輸出。但這種良好的輸出水平并不在語言模型預(yù)訓(xùn)練過程中出現(xiàn)。

至于幻覺,它有時會胡言亂語,這也大大限制了它們的用途。但我非常希望通過簡單改進后續(xù)的人類反饋強化學(xué)習(xí),就能教它不再產(chǎn)生幻覺。你可能會問,它真的能學(xué)會嗎?我的答案是,讓我們試試看吧。

我們現(xiàn)在的做法是雇人教會 ChatGPT 如何表現(xiàn)。你只需要與它互動,它就能從你的反應(yīng)中推斷出你想要的東西,比如,你對輸出結(jié)果不滿意。因此,它應(yīng)該在下一次做些不同的事情。我認(rèn)為這種方法很有可能(a quite a high chance)完全解決幻覺的問題。

CRAIG:Yann LeCun( Facebook 首席人工智能科學(xué)家、深度學(xué)習(xí)先驅(qū)之一)認(rèn)為,大型語言模型缺少可參考的、非語言的基礎(chǔ)世界模型。我想聽聽你對此的看法,以及你是否已經(jīng)進行了相關(guān)探索。

ILYA: 我審查過 Yann LeCun 的提案,用不同語言表達(dá)了很多想法,可能與當(dāng)前的范式有一些微小的差異,但在我看來,它們不是很顯著。

他的第一個主張是一個系統(tǒng)需要有多模態(tài)理解,這樣它就不只是從文本中了解世界。我對此的評論是,多模式理解確實是可取的,因為你對世界了解得更多,你對人了解得更多,你對他們的狀況了解得更多,系統(tǒng)將能夠更好地理解它應(yīng)該解決的任務(wù)是什么,以及他們想要什么。

我們在這方面做了很多工作,最引人注目的是我們已經(jīng)完成的兩個主要神經(jīng)網(wǎng)絡(luò)。一個叫 Clip,一個叫 Dall-E。它們都朝著這個多模態(tài)方向移動。但我認(rèn)為這種情況不是非此即彼的:如果你沒有視覺,不能從視覺上或視頻上理解世界,那么事情就不會成功。

我想要證明這一點。有些東西從圖像和圖表中更容易學(xué)習(xí),但我認(rèn)為仍然可以只從文本中學(xué)習(xí),只是速度更慢。想想顏色的概念。

當(dāng)然,一個人不能只從文本中學(xué)習(xí)顏色的概念,但是當(dāng)你看「嵌入」時——我需要繞一個小彎子來解釋「嵌入」的概念。每個神經(jīng)網(wǎng)絡(luò)都通過「嵌入」表示單詞、句子、概念,這些「嵌入」是高維向量。

我們可以看一下這些高維向量,看看它們彼此之間有什么相似之處;神經(jīng)網(wǎng)絡(luò)如何看待這個概念或那個概念?所以,機器可以通過嵌入向量,知道紫色和藍(lán)色比紅色更相似,紅色和橙色比紫色更相似。它只通過文本就知道這些。這是怎么做到的呢?

如果你看得見,就會立刻看到顏色差異。如果只有文字,你就需要更長時間,也許你知道如何說話,也理解語法,單詞和語法,但直到很久以后才真正開始理解顏色。所以,這就是我關(guān)于多模態(tài)性必要性的觀點:它不是必要的,但肯定是有用的。這是一個值得追求的方向。我只是認(rèn)為它不是非此即彼的。

這也是為什么(LeCun 的)論文中聲稱,最大挑戰(zhàn)之一是預(yù)測具有不確定性的高維向量。

但我發(fā)現(xiàn)令人驚訝的是,在這篇論文中未被承認(rèn)的是,當(dāng)前的自回歸 transformers ?( autoregressive transformers )已經(jīng)具有這種性質(zhì)。

舉兩個例子。一個是給定書中的一頁,預(yù)測書中的下一頁。接下來可能會有很多頁。這是一個非常復(fù)雜的高維空間,他們處理得很好。這同樣適用于圖像。這些自回歸 transformers 在圖像上工作得非常完美。

例如,和 OpenAI 一樣,我們在 iGPT 上做了一些工作。我們只是拿了一個 transformers 把它應(yīng)用到像素上,表現(xiàn)得非常好,能以非常復(fù)雜和微妙的方式生成圖像。Dall-E 1 也是一樣的。

所以,這篇論文強調(diào)現(xiàn)有方法無法預(yù)測高維分布的部分,我的觀點是(它們)肯定是可以的。

CRAIG:按你說的,有一群人類訓(xùn)練師正在使用 ChatGPT 或一個大型語言模型來指導(dǎo)它有效地強化學(xué)習(xí),直覺上,這不像是一種教會模型掌握語言潛在現(xiàn)實的有效方法。

ILYA:我不同意這個問題的措辭。我認(rèn)為,我們預(yù)先訓(xùn)練過的模型已經(jīng)知道了它們需要知道的關(guān)于潛在現(xiàn)實的一切。他們已經(jīng)有了這些語言知識,也有大量關(guān)于世界上存在的產(chǎn)生這種語言的過程的知識。

大型生成模型從他們的數(shù)據(jù)中學(xué)到的東西——在這種情況下,大型語言模型——是產(chǎn)生這些數(shù)據(jù)的真實世界過程的壓縮表示,這不僅意味著人和他們的想法,他們的感受,還意味著人們所處的條件以及他們之間存在的互動。一個人可能處于不同的情境,而所有這些情境信息都是壓縮過程的一部分,由神經(jīng)網(wǎng)絡(luò)表示,以生成文本。語言模型越好,生成模型越好,保真度越高,它就能更好地捕捉這個過程。

現(xiàn)在,正如你所描述的那樣,這些訓(xùn)練師的確也在使用人工智能輔助。這些人不是獨自行動的,他們正在使用我們的工具,而工具則承擔(dān)了大部分工作。但是,你確實需要有人來監(jiān)督和審核他們的行為,因為你希望最終實現(xiàn)非常高的可靠性。

確實有很多動機使其盡可能高效和精確,這樣得到的語言模型將盡可能表現(xiàn)良好。

ILYA:是的,這些人類訓(xùn)練師正在教授模型所需的行為。他們使用人工智能系統(tǒng)的方式不斷提高,因此他們自己的效率也在不斷提高。

這跟人類教育沒什么不同。我們需要額外培訓(xùn),確保模型知道幻覺不可行。人類或者其他方法能夠教會它。

某些因素應(yīng)該會奏效。我們很快就會找到答案。

CRAIG: 你現(xiàn)在的研究方向是什么?

ILYA: 我不能詳細(xì)談?wù)撐艺趶氖碌木唧w研究,但是我可以簡單地提到一些廣義的研究方向。我非常有興趣使這些模型更加可靠、可控,讓它們從教材數(shù)據(jù)中更快地學(xué)習(xí),減少指導(dǎo)。讓它們不會出現(xiàn)幻覺。

CRAIG: 如果你有足夠的數(shù)據(jù)和足夠大的模型,能否為一些看似無法解決的沖突找出讓每個人都滿意的最佳解決方案?你是否思考過這將如何幫助人類管理社會?

ILYA:這是一個很大的問題,因為這是一個更加面向未來的問題。我認(rèn)為,我們的模型在許多方面將比現(xiàn)在強大得多。

政府將如何使用這項技術(shù)作為各種建議的來源,目前還無法預(yù)測。關(guān)于民主的問題,我認(rèn)為未來可能發(fā)生的一件事是,因為這些神經(jīng)網(wǎng)絡(luò)將無處不在,對社會具有巨大影響力,因此可能會探索出更讓人滿意的民主方式,比如每個公民向它們輸入一些信息,包括他們希望事態(tài)如何發(fā)展等。這可能是一種非常高度的民主方式,從每個公民那里獲得更多信息,這些信息被聚合起來,然后搞清楚我們到底希望系統(tǒng)如何運作?,F(xiàn)在它引發(fā)了很多問題,但這是未來可能發(fā)生的一件事。

(聚合龐大信息意味著模型可能分析某種情境下的所有變量,那么)分析所有變量意味著什么呢?最終你需要找出一些真正重要的變量,進行深入研究。這就像為了深入了解,我可以讀一百本書,也可以仔細(xì)讀一本書。同時,我認(rèn)為從根本上說,理解所有事情是不可能的。讓我們舉一些簡單的例子。

任何時候,社會上出現(xiàn)任何復(fù)雜情況,即使是在一個公司,一個中等規(guī)模公司,它已經(jīng)超出了任何一個人的能力范圍。如果以正確方式構(gòu)建人工智能系統(tǒng),它就在各種情境下極大地幫助到我們。

作者 |?Craig S. Smith

編譯 |ChatGPT-4 、吳昕

風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: