環(huán)球今亮點(diǎn)!急于應(yīng)戰(zhàn)ChatGPT不管倫理道德?谷歌內(nèi)測員工稱Bard是“病態(tài)的騙子”、答復(fù)可能讓人喪命
上月谷歌正式公測人工智能(AI)聊天機(jī)器人Bard,這一正面對抗ChatGPT的重大行動背后可能有隱患。媒體發(fā)現(xiàn),為了在AI競賽中不落于人后,谷歌在推出Bard時并沒有遵循以往的道德倫理承諾。
在Bard公測前,谷歌要求員工做內(nèi)部測試。媒體稱,相關(guān)截圖顯示,內(nèi)部討論時,有一名谷歌員工得出了Bard是個“病態(tài)的騙子”這種結(jié)論,另一人形容Bard令人感到尷尬。
(資料圖片)
具體到Bard的回答方面,一名參與內(nèi)測的谷歌員工稱,Bard給出的飛機(jī)如何著陸建議往往會導(dǎo)致墜機(jī)。另一人稱,Bard給出的水肺潛水答復(fù)可能導(dǎo)致潛水者受重傷、甚至喪命。
去年12月,在ChatGPT橫空出世后不久,谷歌管理層就發(fā)出了“紅色代碼”(red code)級別的警告。此前媒體稱,谷歌CEO Sundar Pichai要求谷歌旗下產(chǎn)品盡快接入生成式AI,該警報(bào)催生了谷歌內(nèi)部數(shù)十個生成式AI集成計(jì)劃,谷歌聯(lián)合創(chuàng)始人Sergey Brin甚至親自下場給Bard寫代碼。還有媒體提到,在員工中測試Bard也是紅色代碼計(jì)劃的一部分。
本周三媒體指出,2021年,谷歌曾承諾,要將研究AI倫理道德的團(tuán)隊(duì)成員擴(kuò)大一倍,而且要投入更多資源評估AI技術(shù)的潛在危害。但去年11月ChatGPT問世后大受歡迎,谷歌在此后幾個月內(nèi)竭力將ChatGPT同類的生成式AI融入旗下所有重要產(chǎn)品。谷歌這種明顯加快步伐的變化可能產(chǎn)生深遠(yuǎn)的社會影響。
媒體提到,一些曾在谷歌工作和目前還為谷歌效力的員工透露,去年12月拉響“紅色警報(bào)”后,谷歌高層領(lǐng)導(dǎo)改變了風(fēng)險偏好,他們認(rèn)定,盡管還需要讓道德團(tuán)隊(duì)參與其中,但只要將新產(chǎn)品稱為“實(shí)驗(yàn)”,公眾就可能原諒產(chǎn)品的缺點(diǎn)。
上述員工稱,此前谷歌承諾強(qiáng)化的道德規(guī)范工作團(tuán)隊(duì)現(xiàn)在被剝奪了權(quán)力,士氣低落。負(fù)責(zé)新產(chǎn)品安全和道德影響的員工被告知,不要妨礙、或試圖扼殺一切正在開發(fā)的生成式AI工具。
谷歌本周三回應(yīng)媒體稱,負(fù)責(zé)任的AI(responsible AI)仍然是公司的首要任務(wù)。“我們將繼續(xù)投資一些團(tuán)隊(duì),他們致力于將我們的AI原則應(yīng)用于我們的技術(shù)?!?/p>
至少目前看來,谷歌在AI道德方面還有所警惕。
華爾街見聞上月提到,從谷歌員工處獲悉,谷歌給Bard加入了很多responsible AI方面的工作,在正式發(fā)布公測前,谷歌耗費(fèi)大量時間做出了完備的合規(guī)測試。從這個角度看,相比ChatGPT的驚艷表現(xiàn),多數(shù)用戶評價Bard平淡無奇可能是谷歌有意為之。換句話說,谷歌認(rèn)為Bard可以“無聊”,可以出錯,但不能“越界”。
上周日,谷歌的CEO Sundar Pichai警告,如果對AI部署不當(dāng),可能造成非常嚴(yán)重的危害。盡管存在緊迫感,Pichai仍警告企業(yè)不要被卷入到競爭態(tài)勢中。他認(rèn)為,社會還沒有為AI的快速發(fā)展做好準(zhǔn)備,因此需要更強(qiáng)有力的監(jiān)管。
風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。關(guān)鍵詞: