【世界速看料】干貨 | AI算法透明性實現(xiàn)與評估
以下內(nèi)容整理自清華大學(xué)《數(shù)智安全與標(biāo)準(zhǔn)化》課程大作業(yè)期末報告同學(xué)的匯報內(nèi)容。
我們主要從分析問題、解決問題、效果評估和實際驗證四方面,推動這一課題的研究,并形成相應(yīng)的研究成果。
第一部分:AI算法透明概述
(資料圖)
第一部分,AI算法透明概述,主要凝練了當(dāng)前AI算法透明性存在的挑戰(zhàn)。
近年來,人工智能技術(shù)的發(fā)展使得其透明性問題日益凸顯,為保障用戶對算法知情,實現(xiàn)監(jiān)管機構(gòu)對算法進行有效規(guī)范治理與問責(zé),算法透明性必不可少。
然而,算法透明性更類似于原則性的提議,具體如何落實透明性要求,并對其進行有效評估,尚未形成共識。
因此,我們對AI算法透明當(dāng)前存在的諸多挑戰(zhàn)進行了總結(jié),主要涉及三個維度:技術(shù)、評估和制度。
技術(shù)上,很難處理AI算法的黑箱問題;
評估上,對透明程度的要求很難把握尺度;
制度上,算法問責(zé)機制仍然模糊。
為有效應(yīng)對這些挑戰(zhàn),我們首先給出算法透明性實現(xiàn)路徑,解決技術(shù)和制度問題,之后提出算法透明評估清單應(yīng)對評估問題,最終在推薦系統(tǒng)下進行實踐與應(yīng)用。
第二部分:實現(xiàn)AI算法透明
宏觀上,我們首先需要AI算法透明性治理范式,針對當(dāng)前在算法監(jiān)管立法等多個層面的挑戰(zhàn)。我們希望打破透明性中耦合的機制主義和管理主義,形成一種以法律規(guī)制為主導(dǎo),技術(shù)適配為基礎(chǔ)的多元一體、多方協(xié)作的AI算法透明性治理范式。
微觀上,這一范式的實施措施落實到學(xué)術(shù)、法律、技術(shù)和場景四方面。
學(xué)術(shù)上,國內(nèi)外學(xué)者研究主要從多方視角相關(guān)主體出發(fā),提出了若干在法律規(guī)制和技術(shù)適配方面的思考。
法律上,鑒于算法透明,是實現(xiàn)算法問責(zé)的重要機制。主要可以總結(jié)為兩種實現(xiàn)AI算法透明的模式:賦權(quán)模式和行為規(guī)范模式。賦權(quán)模式屬于事后救濟,而行為規(guī)范模式屬于事前預(yù)防和事中約束。
這里我們具體對比了不同國家地區(qū)的法律,發(fā)現(xiàn)各國都采取健全算法問責(zé)機制等措施。此外,我們也注意到歐盟還強調(diào)對算法參數(shù)的公開。
技術(shù)上,我們聚焦于實現(xiàn)從不透明模型向可詮釋模型、可理解模型轉(zhuǎn)變的可解釋技術(shù),該技術(shù)具體分為事前解釋、事后解釋和可詮釋模型。針對不同的應(yīng)用實例,又會有更為細致的方法。
不同的應(yīng)用場景,對AI算法透明體現(xiàn)出不同的場景需求。我們也分別在自動駕駛、材料化學(xué)、智能教育和建筑設(shè)計,四個細分領(lǐng)域內(nèi)進行了需求分析和方法探索。
第三部分:評估AI算法透明
鑒于現(xiàn)有法律規(guī)制大多在宏觀層面強調(diào)算法透明監(jiān)管原則,卻鮮小有具體措施。因此,我們提出一套相對詳細、可實施的評估標(biāo)準(zhǔn),以細化并落實算法透明度合規(guī)要求。
首先,面向算法使用者的AI透明度評估清單的設(shè)計目標(biāo),在于保障知情權(quán)。內(nèi)容主要分為算法概述與技術(shù)信息,要求算法開發(fā)方對這些內(nèi)容進行說明。
算法使用者的AI透明度評估清單相較于面向用戶的清單,由于監(jiān)管方需要根據(jù)算法評估內(nèi)容進行等級評估,所以該技能較為嚴(yán)格,需要說明的內(nèi)容也更為復(fù)雜。
為配合透明度評估清單的使用,我們還提出了透明度評估等級表。面向不同使用場景的算法分為五個等級進行評估,不同等級對于算法開發(fā)者應(yīng)當(dāng)達到的透明度有不同要求,且逐步加強。
具體這個清單是如何工作的呢?如左圖所示,評估流程有助于監(jiān)管方對算法開發(fā)者在事前、事中和事后階段做出責(zé)任分配。
在開發(fā)方與使用者方面,開發(fā)方遵照透明度用戶指南向算法使用者提供算法的透明度指南。之后,使用者需要閱讀指南,以此確立兩方權(quán)責(zé)分配并獲得知情。
第四部分:AI算法透明實踐
我們選擇推薦系統(tǒng)作為典型實例,也是因為推薦系統(tǒng)最能體現(xiàn)AI算法透明的要求。如果能讓外界理解為什么信息被推薦給乙方,其實就達到了這個場景下的透明度要求。
通過實現(xiàn)推薦系統(tǒng)的透明性,也能提升用戶對系統(tǒng)的信任程度,使系統(tǒng)推薦結(jié)果得到檢驗,同時受到有關(guān)方面的監(jiān)管。
考慮到推薦系統(tǒng)目前采用的AI推薦算法眾多,所以我們設(shè)計了一個推薦系統(tǒng)外的解釋系統(tǒng)或算法,用于對推薦系統(tǒng)進行解釋或直接作為一個整體對外提供具有解釋性質(zhì)的推薦。
其核心算法是采用知識圖譜與強化學(xué)習(xí)的技術(shù),充分挖掘推薦系統(tǒng)中的可解釋模型,以此進行相關(guān)的路徑挖掘,并利用解釋路徑對推薦系統(tǒng)行為加以解釋。
這里我們采用一九年一個公開的購物網(wǎng)站公布數(shù)據(jù)進行結(jié)果演示,在利用上述算法完成解釋系統(tǒng)后,對數(shù)據(jù)集進行路徑挖掘,得到左圖所示的結(jié)論。
基于上述深層的推理路徑,對推薦系統(tǒng)的多個推薦實例進行解釋。結(jié)果表明,方法不僅能夠幫助推薦系統(tǒng)獲得有希望的推薦結(jié)果,而且能夠有效為推薦系統(tǒng)找到不同的用于推薦解釋的推理路徑。
之后,我們分別將未加入和加入這一解釋算法的推薦系統(tǒng),按照前一章節(jié)設(shè)計的流程進行算法評估。結(jié)果表明,融入解釋算法后的推薦系統(tǒng),在透明度上有明顯提升,但監(jiān)管方也注意到,新的具有解釋性質(zhì)的推薦系統(tǒng),在技術(shù)和社會風(fēng)險上處理方法上有缺,要求對當(dāng)前算法做進一步改進,并對提交的材料進行補充。
感謝各位的聆聽!以上就是我們小組要匯報的全部內(nèi)容。
編輯整理:陳龍關(guān)鍵詞: 推薦系統(tǒng) 結(jié)果表明