環(huán)球關(guān)注:Nature一周連發(fā)兩文探討ChatGPT:學(xué)術(shù)圈使用已不可避免,是時候明確使用規(guī)范了
在科技巨頭為了ChatGPT大打出手的另一邊,學(xué)術(shù)圈對于ChatGPT的關(guān)注也在升高。
一周時間內(nèi),Nature連發(fā)兩篇文章探討ChatGPT及生成式AI。
【資料圖】
畢竟ChatGPT最早還是在學(xué)術(shù)圈內(nèi)掀起風(fēng)浪,先后有學(xué)者拿它寫論文摘要、改論文。
Nature為此專門頒布禁令:ChatGPT不能當(dāng)論文作者。Science則直接禁止投稿使用ChatGPT生成文本。
但趨勢已擺在眼前。
現(xiàn)在更應(yīng)該做的,或許是明確ChatGPT對于科學(xué)界的意義以及應(yīng)當(dāng)處于怎樣的身位。
正如Nature所言:
生成式AI及背后的技術(shù)發(fā)展如此之快,每個月都有創(chuàng)新出現(xiàn)。研究人員如何使用它們,將決定著技術(shù)和學(xué)界的未來。
ChatGPT改變學(xué)術(shù)圈規(guī)則
在《ChatGPT:五大優(yōu)先研究問題》一文中,研究人員提出:
無法阻止ChatGPT殺入學(xué)術(shù)圈,當(dāng)務(wù)之急應(yīng)該是研究探討它會帶來哪些潛在影響。
如果后續(xù)ChatGPT被拿來設(shè)計實驗、進(jìn)行同行審議、輔助出版、幫編輯決定是否要接收文章……這些應(yīng)用應(yīng)該注意哪些問題?現(xiàn)在人類需要明確哪些邊界?
研究人員認(rèn)為,有5個方面需要優(yōu)先考慮,并解釋了原因。
堅持人類審查
ChatGPT等對話式AI的一大特點,就是回答內(nèi)容的準(zhǔn)確性無法保證。而且編出來的瞎話都還很自然,容易對人產(chǎn)生誤導(dǎo)。
比如,研究人員讓ChatGPT對一篇關(guān)于認(rèn)知行為療法(CBT)治療焦慮等癥狀是否有效的論文進(jìn)行總結(jié)概述。
ChatGPT給出的回答中,存在很多事實性錯誤。如它說這項評估是基于46項研究,但實際上是69項,而且夸大了CBT的有效性。
研究人員認(rèn)為如果有學(xué)者使用了ChatGPT幫忙做研究,很可能被錯誤信息誤導(dǎo)。甚至?xí)?dǎo)致學(xué)者在不知情的情況下,剽竊他人成果。
因此,研究人員認(rèn)為在評審論文過程中,人類不能過度依賴于自動化系統(tǒng),最終還是要由人類自己為科學(xué)實踐負(fù)責(zé)。
制定問責(zé)規(guī)則
為了應(yīng)對生成式AI的濫用,很多鑒別AI文本工具陸續(xù)誕生,它們能很好分辨出一段文字是不是人類自己寫的。
不過,研究人員認(rèn)為這種“軍備賽”大可不必,真正要做的是讓學(xué)術(shù)圈、出版商能更加公開透明地使用AI工具。
論文作者應(yīng)該明確標(biāo)注哪些工作是AI承擔(dān)的,期刊如果使用AI審稿,也應(yīng)該公開說明。
尤其是目前生成式AI已經(jīng)引發(fā)了關(guān)于專利問題的討論,AI生成的圖像版權(quán)究竟該怎么算?
那么對于AI生成的問題,著作權(quán)應(yīng)該屬于為AI提供訓(xùn)練數(shù)據(jù)的人?AI背后的制作公司?還是用AI寫文章的學(xué)者?作者身份的問題,也需要嚴(yán)謹(jǐn)定義。
投資真正開放的LLM
目前,幾乎所有先進(jìn)的對話式AI,都是科技巨頭們帶來的。
關(guān)于AI工具背后算法的工作原理,很多都還不得而知。
這也引發(fā)了社會各界的擔(dān)憂,因為巨頭們的壟斷行為,嚴(yán)重違背了科學(xué)界開放的原則。
這將會影響學(xué)術(shù)圈探尋對話式AI的缺點和底層原理,進(jìn)一步影響科技的進(jìn)步。
為了克服這種不透明性,研究人員認(rèn)為當(dāng)下應(yīng)該優(yōu)先考慮開源AI算法的開發(fā)和應(yīng)用。比如開源大模型BLOOM,就是由1000位科學(xué)家聯(lián)合發(fā)起的,性能方面可以匹敵GPT-3。
擁抱AI的優(yōu)點
雖然有很多方面需要設(shè)限,但不可否認(rèn),AI確實能提升學(xué)術(shù)圈的效率。
比如一些審查工作,AI可以快速搞定,而學(xué)者們就能更加專注于實驗本身了,成果也能更快發(fā)表,從而推動整個學(xué)術(shù)圈的腳步走得更快。
甚至在一些創(chuàng)造性工作上,研究人員認(rèn)為AI也能有用武之地。
1991年的一篇開創(chuàng)性論文提出,人和AI之間形成的“智能伙伴關(guān)系”,可以勝過單獨人類的智力和能力。
這種關(guān)系能夠?qū)?chuàng)新加速到無法想象的水平。但問題是,這種自動化能走多遠(yuǎn)?應(yīng)該走多遠(yuǎn)?
因此,研究人員也呼吁,包括倫理學(xué)家在內(nèi)的學(xué)者,必須就當(dāng)今AI在知識內(nèi)容生成方面的界限展開討論,人類的創(chuàng)造力和原創(chuàng)性可能仍舊是進(jìn)行創(chuàng)新研究必不可缺的因素。
展開大辯論
鑒于當(dāng)下LLM帶來的影響,研究人員認(rèn)為學(xué)界應(yīng)該緊急組織一次大辯論。
他們呼吁,每個研究小組都應(yīng)該立即開組會,討論并親自試試ChatGPT。大學(xué)老師應(yīng)該主動和學(xué)生討論ChatGPT的使用和倫理問題。
在早期規(guī)則還沒有明確的階段,對于研究小組負(fù)責(zé)人來說,重要的是如何號召大家更公開透明地使用ChatGPT,并開始形成一些規(guī)則。以及應(yīng)該提醒所有研究人員,要對自己的工作負(fù)責(zé),無論它是否由ChatGPT生成。
更進(jìn)一步,研究人員認(rèn)為要立即舉辦一個國際論壇,討論LLM的研究和使用問題。
成員應(yīng)該包括各個領(lǐng)域的科學(xué)家、科技公司、研究機(jī)構(gòu)投資方、科學(xué)院、出版商、非政府組織以及法律和隱私方面的專家。
Nature:ChatGPT和AIGC對科學(xué)意味著什么
興奮又擔(dān)憂,大概是許多研究人員對于ChatGPT的感受。
發(fā)展到現(xiàn)在,ChatGPT已經(jīng)成為了許多學(xué)者的數(shù)字助手。
計算生物學(xué)家Casey Greene等人,用ChatGPT來修改論文。5分鐘,AI就能審查完一份手稿,甚至連參考文獻(xiàn)部分的問題也能發(fā)現(xiàn)。
來自冰島的學(xué)者Hafsteinn Einarsson,幾乎每天都在用ChatGPT來幫他做PPT、檢查學(xué)生作業(yè)。
還有神經(jīng)生物學(xué)家 Almira Osmanovic Thunstr?m覺得,語言大模型可以被用來幫學(xué)者們寫經(jīng)費(fèi)申請,科學(xué)家們能節(jié)省更多時間出來。
不過,Nature對ChatGPT輸出內(nèi)容做出了精辟總結(jié):
流暢但不準(zhǔn)確。
要知道,ChatGPT的一大缺點,就是它生成的內(nèi)容不一定是真實準(zhǔn)確的,這會影響它在學(xué)術(shù)圈的使用效果。
能解決嗎?
從現(xiàn)在來看,答案有點撲朔迷離。
OpenAI的競爭對手Anthroic號稱解決了ChatGPT的一些問題,不過他們沒有接受Nature的采訪。
Meta發(fā)布過一個名為Galactica的語言大模型,它由4800萬篇學(xué)術(shù)論文、著作煉成,號稱擅長生成學(xué)術(shù)方面內(nèi)容,更懂研究問題。不過現(xiàn)在它的demo已經(jīng)不開放了(代碼還能用),因為用戶在使用過程中發(fā)現(xiàn)它帶有種族歧視。
即便是已經(jīng)被調(diào)教“乖巧”的ChatGPT,也可能會在刻意引導(dǎo)下輸出危險言論。
OpenAI讓ChatGPT變乖的方法也很簡單粗暴,就是去找非常多的人工給語料標(biāo)注,有聲音認(rèn)為這種雇人看有毒語料的行為,也是一種剝削。
但無論如何,ChatGPT及生成式AI,開啟了人類新的一扇想象之門。
醫(yī)學(xué)學(xué)者埃里克·托普(Eric Topol)表示,他希望未來能有包含LLM的人工智能,可以交叉檢查學(xué)術(shù)文獻(xiàn)中的文本和圖像,從而幫助人類診斷癌癥、理解疾病。當(dāng)然這一切要有專家做監(jiān)督。
他說,真沒想到我們在2023年年初,就看到了這樣的趨勢。
而這才只是開始。
本文來源:人工智能學(xué)家,原文標(biāo)題:《Nature一周連發(fā)兩文探討ChatGPT:學(xué)術(shù)圈使用已不可避免,是時候明確使用規(guī)范了》
風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。