AI應(yīng)該如何被監(jiān)管?業(yè)內(nèi)辯論升級,谷歌和OpenAI存嚴重分歧|焦點
隨著ChatGPT大火帶來的AI熱潮,如今,如何監(jiān)管AI技術(shù)成為市場熱議的話題。
(相關(guān)資料圖)
一份最新的文件顯示,谷歌和OpenAI這兩大AI領(lǐng)域的領(lǐng)導者對政府應(yīng)如何監(jiān)管人工智能持有相反的看法。
OpenAI首席執(zhí)行官Sam Altman最近一直在鼓吹由政府來監(jiān)管AI技術(shù),甚至提到要建立一個類似國際原子能機構(gòu)的政府間組織來監(jiān)管AI,而且他認為,該機構(gòu)應(yīng)該專注于監(jiān)管AI技術(shù),以及為使用該技術(shù)的實體頒發(fā)許可。但谷歌則不希望AI監(jiān)管一切都由政府統(tǒng)領(lǐng),該公司更傾向于“多層次、多利益相關(guān)者的AI治理方法”。
AI領(lǐng)域的其他人,包括研究人員,也表達了和谷歌類似的觀點,稱政府部門對AI進行監(jiān)管可能是保護邊緣化社區(qū)的更好方式——盡管OpenAI認為技術(shù)進步太快無法采用這種方法。
谷歌稱:
在國家層面,我們支持中心輻射式方法——由美國國家標準與技術(shù)研究院(NIST)等中央機構(gòu)通知部門監(jiān)管機構(gòu)監(jiān)督AI實施——而不是一個“人工智能部門”。AI將在金融服務(wù)、醫(yī)療保健和其他受監(jiān)管的行業(yè)帶來前所未有的挑戰(zhàn),這些挑戰(zhàn)將由具有這些行業(yè)經(jīng)驗的監(jiān)管機構(gòu)來應(yīng)對,而不是一個新的、獨立的部門來監(jiān)管。
華盛頓大學計算語言學實驗室教授兼主任Emily M. Bender說:
我完全同意所謂的AI系統(tǒng)不應(yīng)該在沒有某種認證程序的情況下部署。但是這個過程應(yīng)該取決于系統(tǒng)的用途?,F(xiàn)有的監(jiān)管機構(gòu)應(yīng)保持其管轄權(quán)和決定權(quán)。
谷歌的這一觀點與OpenAI和微軟偏愛更集中的監(jiān)管模式形成鮮明對比。微軟總裁Brad Smith表示,他支持組建一個新的政府機構(gòu)來監(jiān)管人工智能,而OpenAI 的創(chuàng)始人們也公開表達了他們的愿景,即組建一個類似國際原子能機構(gòu)的組織來監(jiān)管AI。
谷歌全球事務(wù)總裁Kent Walker表示,他“不反對”由新監(jiān)管機構(gòu)監(jiān)督大型語言模型許可的想法,但表示政府應(yīng)該“更全面地”看待這項技術(shù)。
谷歌和微軟在監(jiān)管方面看似相反的觀點表明人工智能領(lǐng)域的爭論越來越多,爭論遠遠超出了技術(shù)應(yīng)該受到多少監(jiān)管的范疇。
今年5月,美國副總統(tǒng)哈里斯在會見了AI界重要公司的領(lǐng)導人后稱,這項技術(shù)“有可能極大地增加對安全和安保的威脅,侵犯公民權(quán)利和隱私,并侵蝕公眾對民主的信任和信心”。
她補充說,企業(yè)有責任遵守現(xiàn)有的法律,以及“倫理、道德和法律責任,以確保其產(chǎn)品的安全和保障”。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責任自負。關(guān)鍵詞: