馬斯克們的擔(dān)憂并非空穴來(lái)風(fēng)?大型科技公司裁減了AI倫理團(tuán)隊(duì)
大型科技公司一直在裁減致力于評(píng)估部署AI相關(guān)倫理問(wèn)題的團(tuán)隊(duì)員工,這使人們對(duì)這項(xiàng)新技術(shù)的安全性更加擔(dān)憂。
(資料圖)
近日,據(jù)媒體報(bào)道,微軟、Meta、谷歌、亞馬遜和推特等公司都裁減了其“負(fù)責(zé)任的人工智能團(tuán)隊(duì)”(Responsible AI)的成員,這些團(tuán)隊(duì)負(fù)責(zé)為使用AI的消費(fèi)產(chǎn)品提供安全建議。
被裁減的員工大概有幾十人,在因整個(gè)科技行業(yè)低迷而被裁掉的數(shù)萬(wàn)名員工中,這只是冰山一角。但是在AI高速發(fā)展的當(dāng)下,這么多相關(guān)員工被解雇依然令業(yè)內(nèi)人士感到震驚和不解。
這些公司表示,他們將繼續(xù)致力于推出安全的AI產(chǎn)品。但專家認(rèn)為,裁員仍令人擔(dān)憂,因?yàn)榫驮谌蜷_(kāi)始測(cè)試大型AI工具之際,對(duì)這項(xiàng)技術(shù)的潛在濫用也在漸漸暴露出來(lái)。隨著OpenAI推出的聊天機(jī)器人ChatGPT在全球大熱,他們的擔(dān)憂也越來(lái)越強(qiáng)烈。
Alphabet 旗下 DeepMind 的前倫理和政策研究員、研究機(jī)構(gòu) Ada Lovelace Institute 副主任 Andrew Strait?向媒體表示:
令人震驚的是,在比以往任何時(shí)候都需要這樣的團(tuán)隊(duì)的時(shí)候,有這么多相關(guān)員工被解雇。
微軟、推特、亞馬遜等公司相繼行動(dòng)
今年1月,在微軟的萬(wàn)人級(jí)別大裁員行動(dòng)中,該公司解散了其所有的倫理道德與社會(huì)團(tuán)隊(duì)。微軟表示,此次裁員不到10個(gè)人,仍有數(shù)百人在AI辦公室工作。
微軟首席負(fù)責(zé)人工智能官 Natasha Crampton?稱:
我們已經(jīng)大大增加了我們負(fù)責(zé)的AI工作,并努力在全公司范圍內(nèi)將其制度化。
在馬斯克的領(lǐng)導(dǎo)下,推特裁掉了超過(guò)一半的員工,其中包括一個(gè)小型的道德AI團(tuán)隊(duì)。該團(tuán)隊(duì)過(guò)去的工作包括修正推特算法中的偏差,例如該算法在選擇裁剪社交網(wǎng)絡(luò)上的圖像時(shí)似乎更傾向于留下白人的面孔。
據(jù)媒體援引知情人士透露,亞馬遜旗下的流媒體平臺(tái) Twitch 上周也裁減了其道德AI團(tuán)隊(duì),要求所有從事AI產(chǎn)品開(kāi)發(fā)的團(tuán)隊(duì)都要對(duì)與AI偏見(jiàn)相關(guān)的問(wèn)題負(fù)責(zé)。
今年9月,Meta解散了其創(chuàng)新團(tuán)隊(duì),該團(tuán)隊(duì)由約20名工程師和倫理學(xué)家組成,負(fù)責(zé)評(píng)估 Instagram 和 Facebook 上的公民權(quán)利和道德規(guī)范。Facebook前AI倫理研究員 Josh Simons 向媒體表示:
AI團(tuán)隊(duì)是大型科技公司唯一的內(nèi)部堡壘,必須確保構(gòu)建AI系統(tǒng)的工程師考慮到受AI系統(tǒng)影響的人和社區(qū)。
它們被廢除的速度讓大型科技公司的算法受制于廣告需求,損害了兒童、弱勢(shì)群體和我們民主的福祉。
另?yè)?jù)知情人士透露,作為 Alphabet 整體裁員計(jì)劃的一部分,谷歌一些負(fù)責(zé)AI道德監(jiān)管的員工也被解雇了。谷歌沒(méi)有具體說(shuō)明有多少員工被削減,但表示AI仍是公司的首要任務(wù),“我們將繼續(xù)投資于這些團(tuán)隊(duì)”。
此前,谷歌內(nèi)部已經(jīng)出現(xiàn)過(guò)關(guān)于AI技術(shù)的發(fā)展、影響和安全性之間的緊張關(guān)系。兩位AI倫理研究負(fù)責(zé)人 Timnit Gebru 和 Margaret Mitchell 在與該公司爆發(fā)了一場(chǎng)激烈爭(zhēng)吵后,分別于2020年和2021年離職。
Strait?表示:
當(dāng)負(fù)責(zé)任的人工智能實(shí)踐在競(jìng)爭(zhēng)或推動(dòng)市場(chǎng)時(shí),卻被排除在外,這是有問(wèn)題的。
而不幸的是,我現(xiàn)在看到的正是這種情況。
邪惡的AI?
一個(gè)重要擔(dān)憂是,ChatGPT等聊天機(jī)器人的大型語(yǔ)言模型會(huì)“創(chuàng)造幻覺(jué)”,即它們會(huì)做出虛假陳述并將其包裝成事實(shí),可用于傳播虛假信息和考試作弊等目的。另外,AI自身潛在的高速進(jìn)化也讓企業(yè)家和科學(xué)家們“警鈴大作”。
華爾街見(jiàn)聞此前提及,3月22日,生命未來(lái)研究所向全社會(huì)發(fā)布了一封《暫停大型人工智能研究》的公開(kāi)信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為6個(gè)月。
而截止目前,圖靈獎(jiǎng)得主Yoshua Bengio、馬斯克、蘋(píng)果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI?創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經(jīng)簽署公開(kāi)信。
倫敦國(guó)王學(xué)院AI研究所主任 Michael Luck?向媒體表示:
我們開(kāi)始看到的是,我們無(wú)法完全預(yù)測(cè)這些新技術(shù)將會(huì)發(fā)生的所有事情,關(guān)鍵是我們要對(duì)它們給予一定的關(guān)注。
AI內(nèi)部倫理團(tuán)隊(duì)的角色也受到了審查,因?yàn)橛凶h論稱,人類對(duì)算法的任何干預(yù)是否應(yīng)該增加透明度,聽(tīng)取公眾和監(jiān)管機(jī)構(gòu)的意見(jiàn)。
2020年,Meta旗下的 Instagram 成立了一個(gè)團(tuán)隊(duì)“IG Equity”,以解決其平臺(tái)上的算法正義問(wèn)題。該團(tuán)隊(duì)希望對(duì) Instagram 的算法進(jìn)行調(diào)整,以加強(qiáng)對(duì)種族的討論,突出邊緣化人群的形象。
Simons?認(rèn)為,相關(guān)工程師們能夠干預(yù)并改變這些制度和偏見(jiàn),并探索能夠促進(jìn)公平的技術(shù)干預(yù)措施,但他們不應(yīng)該決定社會(huì)應(yīng)該如何被塑造。
風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見(jiàn)、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。關(guān)鍵詞: