解鈴還須系鈴人?ChatGPT開(kāi)發(fā)者放出AI內(nèi)容識(shí)別工具,但稱失敗率高達(dá)3/4
(相關(guān)資料圖)
隨著ChatGPT爆火,AI生成內(nèi)容也引發(fā)了諸如版權(quán)、學(xué)術(shù)倫理等擔(dān)憂。對(duì)此,ChatGPT背后的初創(chuàng)公司以彼之矛攻彼之盾,推出AI生成內(nèi)容識(shí)別工具,但也坦言稱這款工具“并不可靠”。
周二,ChatGPT開(kāi)發(fā)公司OpenAI推出了一個(gè)分類器(classifier)來(lái)區(qū)分人類寫的文本和來(lái)自各類AI(不僅僅是ChatGPT)寫的文本。
據(jù)OpenAI,其人工智能分類器在近四分之三的時(shí)間里無(wú)法檢測(cè)到機(jī)器人編寫的文本,因此它不應(yīng)被用作主要的決策工具,而應(yīng)作為確定一段文本來(lái)源的補(bǔ)充方法。
在對(duì)英文文本的識(shí)別測(cè)試中,這款分類器僅將26%的人工智能生成文本正確地識(shí)別為 "可能是人工智能寫的"。人類寫的文本也會(huì)被分類器“錯(cuò)誤但自信地”標(biāo)記為人工智能所寫,將人類寫的文本錯(cuò)誤地標(biāo)記為人工智能寫的的情況有9%。
據(jù)介紹,該分類器對(duì)短文(低于1000個(gè)字符)的識(shí)別非常不可靠,分類器的可靠性通常隨著輸入文本的長(zhǎng)度增加而提高,但更長(zhǎng)的文本也會(huì)被分類器錯(cuò)誤地標(biāo)記。
OpenAI建議只對(duì)英語(yǔ)文本鑒別使用該分類器,它在其他語(yǔ)言中的表現(xiàn)明顯更差,而且它在代碼識(shí)別上也不可靠。
OpenAI表示,分類器雖然不可能可靠地檢測(cè)出所有人工智能寫的文本,但該工具補(bǔ)充了教育工作者、雇主和其他人用來(lái)確定文本來(lái)源的方法,為一些錯(cuò)誤行為提供參考,例如使用人工智能工具進(jìn)行學(xué)術(shù)不端行為等。
自去年11月推出以來(lái),ChatGPT病毒式地橫掃各行各業(yè),能夠在幾秒鐘內(nèi)就幾乎任何主題產(chǎn)生聽(tīng)起來(lái)像人類的文章、詩(shī)歌、劇本和推銷文案,甚至能夠幫程序員寫代碼,幫學(xué)生寫論文。此外,ChatGPT還存在被濫用來(lái)傳播錯(cuò)誤信息和編寫垃圾郵件的可能。
一些學(xué)校已經(jīng)開(kāi)始禁止學(xué)生使用ChatGPT,在很多互聯(lián)網(wǎng)大廠,ChatGPT也遭到了封殺。
根據(jù)用戶的反饋,OpenAI希望改進(jìn)這個(gè)工具。該公司表示,已與美國(guó)教育工作者接觸,討論ChatGPT的功能和局限性。
風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見(jiàn)、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。