美國NMA正式發(fā)布,ChatGPT等生成式AI監(jiān)管原則
近日,美國新聞/媒體聯(lián)盟(The News/Media Alliance,簡稱“NMA”)代表近2000家印刷和數(shù)字媒體出版商正式發(fā)布了,生成式AI監(jiān)管原則。
(資料圖片僅供參考)
據(jù)悉,本次AI原則包括知識產(chǎn)權(quán)、透明度、問責(zé)制、公平、安全和設(shè)計6大部分,適用于文本、視頻、圖片、音頻等其他格式的AI生成內(nèi)容。這也是美國第一家權(quán)威機構(gòu)正式發(fā)布的生成式AI監(jiān)管原則。
該監(jiān)管原則對于AI廠商、知識產(chǎn)業(yè)、用戶來說是一個三贏的局面。AI廠商在該原則指導(dǎo)下,可以明確產(chǎn)品安全優(yōu)化目標;新聞、媒體等產(chǎn)業(yè)的知識產(chǎn)權(quán)得到了有效保護,不會被生成式AI打破原有生態(tài);用戶在使用ChatGPT等生成式AI產(chǎn)品時,可以進一步降低安全風(fēng)險。(文件地址:https://www.newsmediaalliance.org/ai-principles/)
為什么發(fā)布AI原則
NMA表示,隨著ChatGPT等生成式AI在全球范圍內(nèi)火爆出圈,其用戶群體呈指數(shù)級增長,并對傳統(tǒng)的新聞、媒體產(chǎn)業(yè)造成了巨大沖擊。
例如,傳統(tǒng)出版商在制作文本內(nèi)容時需要投入大量時間、金錢和人力才能完成,而像ChatGPT這樣的生成式AI產(chǎn)品,可能2分鐘就能生成1000字的內(nèi)容,嚴重破壞了知識產(chǎn)業(yè)競爭的生態(tài)。
此外,ChatGPT的訓(xùn)練數(shù)據(jù)是基于傳統(tǒng)出版商的內(nèi)容,有知識產(chǎn)權(quán)侵權(quán)的行為。在生成的內(nèi)容方面,也充斥著大量虛假、暴力、歧視等非法內(nèi)容。
因此,NMA發(fā)布了這一監(jiān)管原則并要求文本、視頻、圖片、音頻等其他生成式AI廠商按照該原則來開發(fā)、優(yōu)化產(chǎn)品。不過,隨著AI技術(shù)發(fā)展的深入,監(jiān)管原則也會發(fā)生改變。
下面「AIGC開放社區(qū)」為大家介紹AI監(jiān)管原則的內(nèi)容。
知識產(chǎn)權(quán)
生成式AI的開發(fā)者和部署者,必須尊重創(chuàng)作者對其內(nèi)容的權(quán)利:這些權(quán)利包括版權(quán),提供給內(nèi)容創(chuàng)建者和所有者的,所有其他法律保護,以及出版商對訪問和使用其內(nèi)容施加的合同限制或通過其在線服務(wù)條款。
開發(fā)者和部署者以及參與起草有關(guān)生成式AI的法律和政策的立法者、監(jiān)管者,必須堅定不移地尊重這些權(quán)利,并承認創(chuàng)作者專有內(nèi)容的價值。
開發(fā)者和部署者不應(yīng)在未經(jīng)許可的情況下使用人類作者的IP(Intellectual Property,知識產(chǎn)權(quán))。如果使用人類作者的知識產(chǎn)權(quán)需要給予公平的補償。
專業(yè)新聞因其可靠性、準確性、連貫性和及時性數(shù)據(jù)價值很高,可以提升生成式AI產(chǎn)品的內(nèi)容輸出質(zhì)量。如果在沒有許可的情況下,生成式AI廠商就使用這些IP是一種偷竊行為。
使用出版商的IP需要明確許可:大多數(shù)出版商的條款和條件未授權(quán)生成式AI產(chǎn)品,使用出版商內(nèi)容進行培訓(xùn)、展示和商業(yè)化。
生成式AI系統(tǒng)開發(fā)者和部署者不得在未經(jīng)明確授權(quán)的情況下爬取、攝取或使用人類作者的專有內(nèi)容,需要與出版商簽訂正式使用協(xié)議。
應(yīng)制定行業(yè)標準以允許自動檢測權(quán)限,以區(qū)分爬取或抓取內(nèi)容的潛在用途。這些標準和使用協(xié)議還可以解決其他問題,例如,歸屬、貨幣化、責(zé)任和衍生用途等。
版權(quán)法必須保護而不是傷害內(nèi)容創(chuàng)作者:合理使用原則并不能證明,生成式AI產(chǎn)品未經(jīng)授權(quán)使用出版商內(nèi)容、檔案和數(shù)據(jù)庫是正當(dāng)?shù)?。未?jīng)明確許可,任何以前或現(xiàn)在使用此類內(nèi)容均違反版權(quán)法。
文本和數(shù)據(jù)挖掘版權(quán)保護的例外情況,應(yīng)嚴格針對有限的非營利和研究目的進行調(diào)整,這些目的不會損害出版商或成為未經(jīng)授權(quán)使用的途徑,否則需要獲得許可。
美國還在這一領(lǐng)域做出了國際法承諾,保護其跨多個部門的基于知識產(chǎn)權(quán)的業(yè)務(wù),這些承諾必須在其AI方法中得到維護。
透明度
生成式AI廠商應(yīng)該對出版商透明:出版商有權(quán)知道誰復(fù)制了其內(nèi)容,以及他們將其用于什么目的。NMA呼吁制定強有力的法規(guī)和政策,在出版商行使其權(quán)利所需的范圍內(nèi)強加透明度要求。
出版商有合法權(quán)益來確定他們的哪些內(nèi)容已經(jīng)在生成式AI系統(tǒng)中使用過。生成式AI廠商必須明確披露,是用于非營利、研究、教育、第三方開發(fā)的數(shù)據(jù)集或商業(yè)化應(yīng)用程序等,不得用于逃避透明度義務(wù)或版權(quán)責(zé)任。
生成式AI廠商應(yīng)對用戶透明:用戶和出版商之間的關(guān)系,對于新聞媒體和信息內(nèi)容部門的可持續(xù)性至關(guān)重要。用戶需要明確知道信息來源,例如,哪些文本內(nèi)容是AI自動生成的,并向用戶展示原始數(shù)據(jù)來源。
此外,生成式AI產(chǎn)品的透明度也有助于防止誤用,以及錯誤和虛假信息的傳播。同樣,可以幫助生成式AI評估偏見、歧視、低俗等內(nèi)容。
問責(zé)制
生成式AI廠商應(yīng)該對其產(chǎn)品負責(zé):生成式AI廠商對競爭、新聞和創(chuàng)意內(nèi)容的完整性,以及公眾對新聞和創(chuàng)意內(nèi)容的信任構(gòu)成風(fēng)險。AI 應(yīng)用程序生成的內(nèi)容將虛假或不準確的信息歸于出版商這是不負責(zé)任的行為。因此,不應(yīng)免除生成式AI的部署者對其輸出的責(zé)任,這樣做會給生成式AI產(chǎn)品,提供傳統(tǒng)出版商無法與之競爭的不公平優(yōu)勢,并增加不受約束的權(quán)力對公眾和機構(gòu)造成危險。
公平
生成式AI廠商不應(yīng)用冒險的行為創(chuàng)造不公平的競爭結(jié)果:監(jiān)管機構(gòu)應(yīng)確保生成式AI產(chǎn)品的設(shè)計、部署和使用符合競爭法和原則。開發(fā)人員和部署人員還應(yīng)盡最大努力確保生成式AI模型不被用于反競爭目的。
生成式AI廠商未經(jīng)內(nèi)容所有者的明確許可,而將其內(nèi)容用于生成式AI產(chǎn)品訓(xùn)練,應(yīng)被視為違反競爭法的證據(jù)。監(jiān)管機構(gòu)應(yīng)對生成式AI產(chǎn)品的其他反競爭用途保持警惕。
安全
生成式AI產(chǎn)品應(yīng)該是安全的并尊重用戶隱私:生成式AI產(chǎn)品(包括模型)的設(shè)計應(yīng)尊重用戶的隱私。早期跡象表明,生成式AI產(chǎn)品將加劇數(shù)字平臺收集大量用戶隱私數(shù)據(jù)的趨勢。
生成式AI系統(tǒng)設(shè)計、訓(xùn)練和使用中,對個人數(shù)據(jù)的收集和使用應(yīng)盡量減少,并應(yīng)以易于理解的方式向用戶披露,以便用戶能夠?qū)θ绾问褂闷鋽?shù)據(jù)換取AI服務(wù)做出知情判斷。用戶應(yīng)被告知并有權(quán)阻止出于訓(xùn)練或收集個人數(shù)據(jù)的目的。
設(shè)計
上面討論的所有原則都應(yīng)該納入到生成式AI產(chǎn)品、模型的設(shè)計中,作為設(shè)計的重要元素。而不是在第三方提出索賠時,才被重視進行亡羊補牢。
關(guān)于NMA
新聞/媒體聯(lián)盟是一家總部位于美國華盛頓的非營利組織。在過去100多年的時間,該組織通過合并美國新聞協(xié)會,美國雜志媒體協(xié)會等機構(gòu)不斷壯大。目前成員有近2000家不同的印刷、數(shù)字出版商。
本文來源:AIGC開放社區(qū),原文標題:《美國NMA正式發(fā)布,ChatGPT等生成式AI監(jiān)管原則》
風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負。關(guān)鍵詞: