重磅!Open AI發(fā)布ChatGPT 安全方法
4月6日凌晨,Open AI在官網(wǎng)發(fā)布了《Our approach to AI safety》,以確保安全、可靠地為全球用戶(hù)提供ChatGPT服務(wù)。(地址:https://openai.com/blog/our-approach-to-ai-safety)
(資料圖)
目前,ChatGPT的安全問(wèn)題受到了全球多數(shù)國(guó)家的高度關(guān)注。意大利則直接禁用ChatGPT,歐洲多數(shù)國(guó)家也開(kāi)始紛紛重視ChatGPT是否侵犯數(shù)據(jù)隱私等。一時(shí)間生成式AI的數(shù)據(jù)安全成為熱門(mén)話(huà)題。
Open AI在這關(guān)鍵節(jié)點(diǎn)發(fā)布安全方法,這對(duì)其未來(lái)發(fā)展乃至整個(gè)AIGC行業(yè)都起到了關(guān)鍵的保護(hù)和穩(wěn)定軍心的作用。
構(gòu)建安全、可靠的AI產(chǎn)品
Open AI表示,在發(fā)布任何新系統(tǒng)之前,會(huì)進(jìn)行嚴(yán)格的測(cè)試。聘請(qǐng)外部專(zhuān)家提供反饋,通過(guò)人工反饋強(qiáng)化學(xué)習(xí)等技術(shù)改進(jìn)模型的行為,并構(gòu)建廣泛的安全和監(jiān)控系統(tǒng)。
例如,Open AI的最新模型GPT-4完成訓(xùn)練后,花了6個(gè)多月的時(shí)間在整個(gè)組織內(nèi)開(kāi)展工作,以使其在公開(kāi)發(fā)布之前更安全、更一致。
Open AI認(rèn)為,強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受?chē)?yán)格的安全評(píng)估。需要監(jiān)管以確保采用此類(lèi)做法,Open AI將積極與政府合作,以制定此類(lèi)監(jiān)管的最佳框架。
從實(shí)踐中學(xué)習(xí)、優(yōu)化、改善
Open AI正在努力在部署前預(yù)防可預(yù)見(jiàn)的風(fēng)險(xiǎn),但是,在實(shí)驗(yàn)、研發(fā)的過(guò)程中得到的反饋是有限的,盡管進(jìn)行了嚴(yán)謹(jǐn)、廣泛的測(cè)試仍然無(wú)法預(yù)測(cè)人們使用ChatGPT所產(chǎn)生的各種意外后果。所以,從實(shí)踐項(xiàng)目中學(xué)習(xí)、優(yōu)化和改善產(chǎn)品,成為重中之重。
Open AI通過(guò)自己的服務(wù)和API,以幫助開(kāi)發(fā)人員可以將最強(qiáng)大的大語(yǔ)言模型直接集成到產(chǎn)品中。這可以使得Open AI能夠監(jiān)控濫用行為并采取行動(dòng),并不斷構(gòu)建完善的緩解措施,保證Open AI的產(chǎn)品被用在安全、合規(guī)的項(xiàng)目上。
隨著全球用戶(hù)使用的深入,這促使Open AI需要制定更細(xì)致、周全的對(duì)策來(lái)應(yīng)對(duì)各種可能出現(xiàn)的危險(xiǎn)。
保護(hù)兒童
保護(hù)兒童的安全一直是Open AI的重點(diǎn)工作。Open AI要求人們必須年滿(mǎn) 18 歲,或在父母同意的情況下年滿(mǎn)13歲才能使用Open AI的產(chǎn)品。Open AI正在研究驗(yàn)證選項(xiàng)。
Open AI不允許其產(chǎn)品用于生成仇恨、騷擾、暴力或成人內(nèi)容等。與GPT-3.5相比,Open AI最新的模型GPT-4響應(yīng),非法內(nèi)容請(qǐng)求的可能性降低了82%,并且已經(jīng)建立了一個(gè)強(qiáng)大的系統(tǒng)來(lái)監(jiān)控濫用情況。GPT-4現(xiàn)在可供 ChatGPT Plus 用戶(hù)使用,Open AI希望隨著時(shí)間的推移讓更多人可以使用它。
尊重隱私
Open AI的大型語(yǔ)言模型是在廣泛的文本語(yǔ)料庫(kù)上訓(xùn)練的,這些文本包括公開(kāi)可用的、許可的內(nèi)容以及由人工審閱生成的內(nèi)容。
Open AI不會(huì)使用數(shù)據(jù)來(lái)銷(xiāo)售服務(wù)、做廣告或建立人們的檔案——會(huì)通過(guò)使用數(shù)據(jù)使大語(yǔ)言模型對(duì)人們更有幫助。例如,ChatGPT 通過(guò)與人類(lèi)之間進(jìn)行的對(duì)話(huà),以進(jìn)一步培訓(xùn)和改善產(chǎn)品。
雖然Open AI的一些訓(xùn)練數(shù)據(jù)包括可在公共互聯(lián)網(wǎng)上獲得的個(gè)人信息。但只是希望大語(yǔ)言模型了解世界,而不是了解個(gè)人。因此,Open AI努力在可行的情況下,從訓(xùn)練數(shù)據(jù)集中刪除個(gè)人信息,微調(diào)模型以拒絕對(duì)私人個(gè)人信息的請(qǐng)求,并對(duì)個(gè)人提出的從數(shù)據(jù)庫(kù)中刪除其個(gè)人信息的請(qǐng)求做出回應(yīng)。
提高生成數(shù)據(jù)準(zhǔn)確性
大型語(yǔ)言模型根據(jù)之前的訓(xùn)練模式預(yù)測(cè)下一個(gè)單詞、句子或長(zhǎng)文。但在某些情況下,可能會(huì)出現(xiàn)數(shù)據(jù)不準(zhǔn)確的情況。
提高生成數(shù)據(jù)的準(zhǔn)確性,是OpenAI和許多其他AI開(kāi)發(fā)人員的重點(diǎn)正在取得進(jìn)展。通過(guò)用戶(hù)對(duì)被標(biāo)記為不正確的主要數(shù)據(jù)源的 ChatGPT 輸出的反饋,GPT-4產(chǎn)生真實(shí)數(shù)據(jù)的性能比GPT-3.5高了40%。
持續(xù)的研究和參與
OpenAI認(rèn)為,解決AI安全問(wèn)題的實(shí)際方法是投入更多時(shí)間和資源來(lái)研究有效的緩解和對(duì)齊技術(shù),并測(cè)試它們?cè)诂F(xiàn)實(shí)世界中的濫用情況。
雖然OpenAI等了6個(gè)多月才部署GPT-4以更好地了解其功能、優(yōu)勢(shì)和風(fēng)險(xiǎn),但有時(shí)可能需要比這更長(zhǎng)的時(shí)間來(lái)提高AI系統(tǒng)的安全性。
因此,政策制定者和 AI 供應(yīng)商需要確保AI的開(kāi)發(fā)和部署在全球范圍內(nèi)得到有效管理,這樣就沒(méi)有人會(huì)為了取得成功而偷工減料。這是一項(xiàng)艱巨的挑戰(zhàn),需要技術(shù)和制度創(chuàng)新,但OpenAI會(huì)全力以赴做出最大努力去改善。
本文作者:?AIGC開(kāi)放社區(qū)?,來(lái)源:AIGC開(kāi)放社區(qū),原文標(biāo)題:《重磅!Open AI發(fā)布ChatGPT 安全方法》
風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶(hù)應(yīng)考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。關(guān)鍵詞: