【天天熱聞】GPT-5根本不存在!ChatGPT之父Sam Altman首次公開表態(tài),最新視頻流出
Sam Altman辟謠了!根本就沒有GPT-5!
之前一直有大瓜稱,GPT-5正在秘密訓(xùn)練中,預(yù)計年底上線。群眾們奔走相告,可以說萬分期待。
(相關(guān)資料圖)
結(jié)果,就在剛剛,Sam Altman親口辟謠了這個大瓜。
他言之鑿鑿地說:「我們現(xiàn)在并沒有訓(xùn)練GPT-5,目前只是在GPT-4的基礎(chǔ)上進行更多的工作而已?!?/p>
An earlier version of the letter claimed OpenAI is training GPT-5 right now. We are not and won"t for some time. We are doing other things on top of GPT-4 that I think have all sorts of safety issues that are important to address and were totally left out.
第二個大瓜是,Altman對于AI大佬暫停超強AI訓(xùn)練的聯(lián)名信,也首次做了回應(yīng)。
讓我們看看,目前網(wǎng)上流出的3分鐘視頻里,Altman究竟說了什么。
對聯(lián)名信首次表態(tài)
隨后,另一圖靈獎得主Yann LeCun、吳恩達等大佬也紛紛表明自己沒有署名的原因。
雖然公開措辭是「針對所有AI機構(gòu)」,但大家都明白,這封信就差沒點OpenAI的名了。
然而,萬千目光集于一身的Sam Altman卻始終對此保持沉默,從未公開表露自己對于這封信的態(tài)度。
現(xiàn)在,Sam Altman終于在Lex Fridman的第2輪訪談中公開表態(tài):我贊同這個倡議的一部分,但它也遺漏了很關(guān)鍵的一點。
他的原話是:「這個倡議的其中一部分,我是十分贊同的。就像我們訓(xùn)練完GPT-4以后,也是等了六個月才發(fā)布?!?/p>
Altman強調(diào),OpenAI花了很長時間研究GPT-4的安全性,接受了外部審核,也進行了內(nèi)部的紅隊演習。
總之,OpenAI已經(jīng)盡最大努力去了解,這個模型究竟發(fā)生了什么,而且讓整個過程謹慎再謹慎。
他自豪地表示:自從我們發(fā)布GPT-4以后,一切都很不錯。
的確,GPT-4的安全能力確實無可指摘,用Altman的話說,它也許不是功能最強大的模型,但肯定是目前未知最安全、最對齊的模型。
因此,對于公開信的這一部分,Altman是百分百贊同的,他還表示,隨著模型的能力越來越強,與之對應(yīng)的安全措施確實需要增加。
否認:根本就沒有GPT-5
不過,Altman隨即石破天驚地指出了這封信的「華點」。
他指出,這封公開信遺漏了最含技術(shù)性的一個細微之處——我們該在哪里停止。
接著,他說出了讓在場所有人都驚掉下巴的一句話——「我們根本就沒在訓(xùn)練GPT-5」。
這封信一開始的版本,說OpenAI正在訓(xùn)練GPT-5。但實際上我們并沒有,而且在相當一段時間內(nèi),都不會這樣做。所以這么來看,這封信就有些愚蠢了。
不過,他承認,在GPT-4發(fā)布后,OpenAI確實做了很多別的事情,并且也在忙著處理各種亟待解決的安全性問題。
而在他眼里,簽署一封公開信,并不是提出這個問題最好的方式。
我們的唯一區(qū)別,就是更坦誠
Altman回答說,我們當然會一直保持坦誠。
因為OpenAI堅信,ChatGPT技術(shù)會影響所有人,所以他們大膽地選擇把一個還不完美的AI系統(tǒng)公之于眾,讓所有人都囊括在這個討論體系中。
盡管這讓OpenAI背負上了種種「聲譽風險」,種種罵名,會需要在公眾面前改口,讓自己難堪。
但是至少,所有人就都能體驗和思考這項新技術(shù),了解AI好的一面,和不好的一面。
Altman認為,這樣做值得。
很多公司不愿意多說一句話,除非他們確定這句話一定是對的。
而OpenAI認為,保持坦誠比別的選擇都要好。
OpenAI的一大目標就是,讓全世界都參與進來,一起思考新技術(shù),建立新機構(gòu),弄清人類想要的未來究竟是什么樣子。
OpenAI另一創(chuàng)始人:未來屬于我們所有人
有關(guān)AI發(fā)展速度的討論中,有一個底層的核心理念,那就是我們需要非常重視安全性問題,謹慎前行。這對于我們的目標來說十分重要。
我們花了6個月的時間測試GPT-4,力圖讓這個AI更加安全。這一成就建立在我們多年來步調(diào)一致的研究之上。
我們計劃繼續(xù)加強我們就安全問題采取的措施,更積極地面對安全性問題——要比很多用戶想的更積極。
大體上我們的目標是,每一個我們推出的模型,都是最一致的。而我們也做到了,從GPT-3,GPT-3.5,到現(xiàn)在的GPT-4.
我們相信(我們也是這么做的),功能強大的AI訓(xùn)練應(yīng)該向政府及進行匯報,同時要越來越認真地這些AI的能力和影響進行預(yù)測。進行AI訓(xùn)練要求我們進行最高規(guī)格的測試,比如說危險能力測試。
我們認為大規(guī)模運算的使用的管控,安全標準,和部署AI后的監(jiān)管以及經(jīng)驗分享是非常好的注意。
但是,細節(jié)問題也很重要,并且應(yīng)該隨著技術(shù)的進步時刻調(diào)整。
同時,解決現(xiàn)實問題,比如防止濫用和自我傷害,減輕訓(xùn)練中的偏見,以及應(yīng)對長期存在的問題等等,同樣至關(guān)重要。
從AI的長期發(fā)展歷史來看,專家們自信滿滿的預(yù)測往往并不準確。為了避免出現(xiàn)未注意到的預(yù)判錯誤,我們就應(yīng)該讓新技術(shù)以其當下的面貌時刻和現(xiàn)實世界碰撞,并在不斷碰撞的過程中發(fā)展、測試、投入使用,當然能力提升也是一定的。
同時還有一些人們不常聊到的創(chuàng)造性想法,可以以意想不到的方式提升AI的安全性狀況。
比如說,開發(fā)一系列性能越來越強的AI十分簡單,這就提供了一種新的解決安全問題的機會,和過去不常出現(xiàn)重大模型升級時的方法完全不同。
未來的AI變革性技術(shù)變化讓我們更加樂觀的同時,也帶來了諸多擔憂。
各種不同的情感都是合理的,OpenAI的內(nèi)部人員也都有不同的看法。
我們可以一同構(gòu)建未來——這是一個獨一無二的機會,同時對我們來說也是一種義務(wù)。
網(wǎng)友:改名GPT-4.5,搞定
那對于這個驚爆的大瓜,網(wǎng)友們信不信呢?
有人認為,這一串發(fā)言,完全就是欲蓋彌彰,把GPT-5這個名字改成GPT-4.5不就完事了么。
這一網(wǎng)友也很損地翻譯了一下Altman的話,「這個發(fā)言總結(jié)起來就是,我們沒搞GPT-5,搞的是GPT-4.99999。」
這位網(wǎng)友腦洞更大,「我們沒有在訓(xùn)練GPT-5,這是虛假消息。我們訓(xùn)練的AI叫GPT-10,然后我們會讓GPT-10去開發(fā)一個既安全又合理的GPT-5,再弄9個版本之后,我們就可以公之于眾啦?!?/p>
而另一邊,Sam Altman曾經(jīng)的好兄弟、OpenAI曾經(jīng)的聯(lián)合創(chuàng)始人之一馬斯克,最近也被爆出花大價錢買了10000個GPU(每顆約1萬美元),還從谷歌那里高價挖人,要在推特內(nèi)部啟動一項AI項目。
因為經(jīng)營理念不和、憤而退出OpenAI創(chuàng)始人席位的馬院士,究竟在憋什么大招呢?讓我們拭目以待。
參考資料:
https://www.youtube.com/watch?v=4ykiaR2hMqA
關(guān)鍵詞: