原創(chuàng) 要聞 證券 基金 保險(xiǎn) 銀行 上市公司 IPO 科創(chuàng)板 汽車 新三板 科技 房地產(chǎn)

人工智能倫理與治理研討會(huì)召開 專家建議開展實(shí)證研究與大眾“算法啟蒙”


中國(guó)產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)   時(shí)間:2021-08-19





  隨著算法在各行業(yè)的廣泛應(yīng)用,算法已成為數(shù)字社會(huì)的重要構(gòu)件和基礎(chǔ)。不過,在對(duì)整個(gè)社會(huì)帶來正向功能和價(jià)值的同時(shí),也引發(fā)外界對(duì)其帶來的社會(huì)風(fēng)險(xiǎn)和倫理道德的談?wù)摗?/p>

  為此,近日,由清華大學(xué)數(shù)據(jù)治理研究中心主辦的“人工智能倫理與治理”專題研討會(huì)在線上召開,邀請(qǐng)了來自中央黨校、中國(guó)社科院、清華大學(xué)、復(fù)旦大學(xué)、浙江大學(xué)、中國(guó)政法大學(xué)、電子科技大學(xué)、山東大學(xué)、北京化工大學(xué)、中國(guó)農(nóng)業(yè)大學(xué)、對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)、山東師范大學(xué)等多位專家學(xué)者,圍繞人工智能發(fā)展與應(yīng)用帶來的社會(huì)風(fēng)險(xiǎn)、人工智能倫理的核心關(guān)切和構(gòu)建方式等問題,展開了談?wù)摗?/p>

  新形勢(shì)下的數(shù)據(jù)保護(hù)等問題受關(guān)注

  研討會(huì)上發(fā)表了《人工智能倫理與治理報(bào)告》(下稱報(bào)告)。

  報(bào)告認(rèn)為,人工智能倫理準(zhǔn)則可以分為安全、透明、公平、個(gè)人數(shù)據(jù)保護(hù)、責(zé)任、真實(shí)、人類自主、人類尊嚴(yán)等八個(gè)維度。會(huì)上,清華大學(xué)數(shù)據(jù)治理研究中心項(xiàng)目研究員戴思源分享了該報(bào)告的相關(guān)研究成果。他指出,網(wǎng)民對(duì)上述八個(gè)維度都有關(guān)注,其中在安全、公平、個(gè)人數(shù)據(jù)保護(hù)、責(zé)任方面關(guān)注的人數(shù)最多,對(duì)比之下,對(duì)透明、人類自主和人類尊嚴(yán)這幾個(gè)維度較少關(guān)注。

  清華大學(xué)數(shù)據(jù)治理研究中心項(xiàng)目研究員李珍珍也分享稱,報(bào)告研究團(tuán)隊(duì)通過問卷調(diào)查方式收集了公眾對(duì)于算法透明、算法公開及數(shù)據(jù)保護(hù)的態(tài)度,結(jié)果顯示,公眾對(duì)算法透明和公開持普遍支持態(tài)度,絕大部分受訪者對(duì)于公開算法的目的、范圍、用途、算法風(fēng)險(xiǎn)等方面選擇比較同意或者非常同意。然而,對(duì)于公開算法的步驟、原理、細(xì)節(jié)以及公開算法的源代碼,持同意態(tài)度受訪者比例會(huì)顯著降低,特別是較多受訪者都認(rèn)為不應(yīng)該公開算法源代碼。

  李珍珍表示,公眾對(duì)算法公開的支持態(tài)度主要集中在算法應(yīng)用和推廣階段,即在使用人工智能產(chǎn)品過程中直接受算法影響的那個(gè)階段。而對(duì)算法的設(shè)計(jì)過程,尤其是源代碼,較多人并不認(rèn)為應(yīng)該公開。

  公眾數(shù)據(jù)保護(hù)一直受外界所關(guān)注。報(bào)告研究團(tuán)隊(duì)在調(diào)查中發(fā)現(xiàn),公眾認(rèn)為最重要的個(gè)人信息包括自己的基本信息、人際關(guān)系信息、經(jīng)濟(jì)情況信息等。另外,在隱私泄露、信息盜用、信息刪除、信息查閱等個(gè)人信息和隱私潛在風(fēng)險(xiǎn)的四個(gè)方面,網(wǎng)民對(duì)于個(gè)人隱私泄露和信息盜用最為擔(dān)心。

  山東大學(xué)政治學(xué)與公共管理學(xué)院副教授孫宗鋒認(rèn)為,人工智能未來的發(fā)展也包括倫理未來的發(fā)展。他認(rèn)同上述報(bào)告提出的八個(gè)維度的重要性,政府應(yīng)重視個(gè)體信息的保護(hù)和公眾總體的信息安全,而在推動(dòng)數(shù)據(jù)共享過程當(dāng)中怎么樣把握好信息安全的度,值得去研究和探索。

  清華大學(xué)社科學(xué)院準(zhǔn)聘副教授張開平認(rèn)為,政府和企業(yè)如何使用個(gè)人數(shù)據(jù)應(yīng)具有雙向約束的契約屬性,當(dāng)個(gè)人向政府或企業(yè)提供數(shù)據(jù)時(shí),政府或企業(yè)應(yīng)更透明、合理地使用個(gè)人數(shù)據(jù)。公眾是否愿意分享個(gè)人信息的意愿應(yīng)得到尊重;在不同情況下的收集個(gè)人信息的目的和用途應(yīng)有更明確的界定。因此,對(duì)于責(zé)任屬性的討論和隱私的保護(hù)應(yīng)細(xì)分大數(shù)據(jù)的用途、目的和屬性,強(qiáng)調(diào)責(zé)任屬性的互利性,這是政府、企業(yè)與公眾的共同責(zé)任。

  針對(duì)報(bào)告提出的倫理維度,電子科技大學(xué)公共管理學(xué)院副教授賈開有自己的建議。他指出,目前人工智能治理的研究和實(shí)踐提出了諸多重要的價(jià)值原則,但缺少對(duì)這些原則細(xì)分內(nèi)容的具體分析。例如“公平”原則,事實(shí)上存在著不同的指標(biāo)內(nèi)涵,當(dāng)不同的公平指標(biāo)被運(yùn)用到不同的社會(huì)現(xiàn)象中時(shí),對(duì)個(gè)體造成的結(jié)果可能是不同的。因此,在人工智能治理研究中,應(yīng)進(jìn)一步推進(jìn)重要價(jià)值指標(biāo)的細(xì)分討論,將宏觀理念與微觀機(jī)制相聯(lián)系。

  報(bào)告也指出,目前學(xué)界尚未對(duì)算法公平的定義、測(cè)量和準(zhǔn)則形成一致意見,了解公眾在主觀上如何判定算法決策結(jié)果的公正性也非常重要,將有助于科技工作者研發(fā)出具有公平原則的算法,這些原則需符合公眾對(duì)公平概念的普遍理解。

  在了解大眾基礎(chǔ)上推動(dòng)“算法啟蒙”

  上述報(bào)告調(diào)查發(fā)現(xiàn),就人工智能倫理,中國(guó)網(wǎng)民最關(guān)注違背了公平原則的大數(shù)據(jù)殺熟等行為,其次是數(shù)據(jù)保護(hù)、人臉技術(shù)等安全性問題和自動(dòng)駕駛汽車等的責(zé)任界定問題,而較少擔(dān)心算法等人工智能的技術(shù)原理不透明、不公開或“人工智能越來越先進(jìn),普通人在社會(huì)中發(fā)揮的作用越來越小”等人類尊嚴(yán)問題。在所有場(chǎng)景中,有用性和倫理因素都是最重要的影響受訪者使用智能產(chǎn)品的因素。

  報(bào)告稱,公眾看重人工智能的公共安全性和個(gè)人數(shù)據(jù)保護(hù),年輕群體傾向于發(fā)揮企業(yè)、用戶、社會(huì)的自主性和多元共治作用,而50歲以上群體更傾向政府的行政監(jiān)管;學(xué)歷越高、所在城市經(jīng)濟(jì)越發(fā)達(dá)、收入越高的受訪者,越看重技術(shù)倫理和法治方式對(duì)人工智能發(fā)展和規(guī)范的作用。

  對(duì)于不同的群體為何會(huì)對(duì)人工智能的看法不盡相同,對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)政府管理學(xué)院講師寧晶發(fā)表了她關(guān)于社交媒體用戶算法接受度的研究。她稱,社交媒體用戶的技能熟練度和對(duì)算法推薦內(nèi)容的接受傾向存在一個(gè)正相關(guān)關(guān)系,也就是說,越不熟練使用社交媒體,越?jīng)]有辦法接受算法推薦內(nèi)容。

  寧晶稱,心理效能也會(huì)影響算法推薦的接受度。心理效能反映的是用戶對(duì)于自身能夠使用數(shù)字技術(shù)進(jìn)而實(shí)現(xiàn)特定目標(biāo),或者是改善自身境況的一種主觀評(píng)估。如果用戶對(duì)正在使用的社交媒體有著較高的心理效能,那他也會(huì)更加關(guān)注算法推薦內(nèi)容的積極影響,因此,心理效能和對(duì)算法推薦內(nèi)容的接受傾向也存在一個(gè)正相關(guān)關(guān)系。

  相較于從業(yè)者和研究者,普通人對(duì)算法的認(rèn)識(shí)存在“數(shù)字鴻溝”,如何減少普通人對(duì)算法的抗拒與誤解,也是需要關(guān)注的。清華大學(xué)國(guó)家治理研究院副院長(zhǎng)、教授張小勁認(rèn)為,學(xué)界應(yīng)當(dāng)推進(jìn)面向大眾的、有關(guān)算法正當(dāng)性的理論建構(gòu)。由于公眾對(duì)算法公開或算法倫理缺乏足夠的基本理解和深度認(rèn)知,學(xué)者應(yīng)當(dāng)對(duì)有關(guān)算法問題所內(nèi)涵的正當(dāng)性、公正性和平等性等概念體系和前沿研究主題,給出基本的定位和說明,這意味著目前正面臨著的數(shù)字時(shí)代的“啟蒙”時(shí)期,學(xué)者負(fù)有打開“黑箱”的責(zé)任。

  為此,張小勁建議,在算法正當(dāng)性理論和算法治理理論的研究和實(shí)踐進(jìn)程中,既要保證算法本身不斷發(fā)展、完善和前進(jìn),又能保證包括企業(yè)和市場(chǎng)監(jiān)管部門在內(nèi)的多元主體都不至于誤用、泛用和濫用算法,還能夠解決社會(huì)大眾的誤解和誤會(huì)。他認(rèn)為,這樣的研究推進(jìn)和實(shí)踐發(fā)展,可能是打破污名化,建立起比較積極的、正當(dāng)化的起步階段。

  在復(fù)旦大學(xué)國(guó)際關(guān)系與公共事務(wù)學(xué)院副院長(zhǎng)、教授熊易寒看來,消除“數(shù)字鴻溝”,需要有一套相對(duì)公開透明的倫理審查機(jī)制,把普通人無法理解的代碼世界還原成普通人也能夠理解的事情?!坝幸徊糠炙惴ㄊ强梢酝ㄟ^日常生活被感知到,還有一部分無法通過感官來感知,這需要一套機(jī)制能夠把它講清楚,一個(gè)技術(shù)或一條代碼意味著什么,這是我們對(duì)它進(jìn)行倫理性考察的必要內(nèi)容。”

  山東師范大學(xué)公共管理學(xué)院副教授趙金旭則建議,彌補(bǔ)“數(shù)字鴻溝”,要采取教育培訓(xùn)或者“數(shù)字下鄉(xiāng)”等措施。

  解決人工智能倫理問題需實(shí)證研究和發(fā)展技術(shù)

  報(bào)告認(rèn)為,人工智能倫理準(zhǔn)則是指“當(dāng)前在人工智能技術(shù)開發(fā)和應(yīng)用中,依照理想中的人倫關(guān)系、社會(huì)秩序所確立的,相關(guān)主體應(yīng)予以遵循的標(biāo)準(zhǔn)或原則”。就理想的愿景如何在現(xiàn)實(shí)中接受檢驗(yàn)和落地,專家們也給出了各自的看法。

  浙江大學(xué)公共管理學(xué)院長(zhǎng)聘副教授、研究員吳超指出,人工智能并沒有想象當(dāng)中的那么強(qiáng),它很難對(duì)復(fù)雜的社會(huì)系統(tǒng)進(jìn)行建模?,F(xiàn)在人工智能最強(qiáng)的深度學(xué)習(xí)方法,是用模式識(shí)別的方法去擬合泛化能力較強(qiáng)的函數(shù),它對(duì)于不同個(gè)體的行為以及社會(huì)個(gè)體之間復(fù)雜交互的預(yù)測(cè)能力較弱。應(yīng)該從社會(huì)科學(xué)的視角向人工智能提出新的科學(xué)問題和優(yōu)化目標(biāo),驅(qū)動(dòng)人工智能未來的發(fā)展和算法的創(chuàng)新。

  吳超稱,要解決技術(shù)帶來的問題,最根本的方法應(yīng)該是發(fā)展技術(shù)本身。目前人工智能還處在技術(shù)非常不成熟的早期階段,從社會(huì)治理或者倫理角度來糾正它的方向,在相應(yīng)的方向進(jìn)行更加扎實(shí)的研究,這也是目前努力的方向。

  中國(guó)社會(huì)科學(xué)院社會(huì)學(xué)所經(jīng)濟(jì)與科技社會(huì)學(xué)研究室主任、研究員呂鵬提出,有關(guān)人工智能倫理問題不能憑空爭(zhēng)論,需要用實(shí)證研究來證實(shí)或證偽。“比如在疫情防控中,很多最后關(guān)口的問題都是靠人解決的。那么治理體系中,數(shù)字應(yīng)用的邊界在哪兒?人與機(jī)器是什么樣的合作模式?這些理論問題都需要更多的實(shí)證研究?!眳矽i稱,包括所謂的信息繭房現(xiàn)象,一些學(xué)者做的最新研究,證明信息繭房在現(xiàn)實(shí)環(huán)境中很難真實(shí)存在。

  當(dāng)前,數(shù)字技術(shù)、人工智能等已經(jīng)廣泛被應(yīng)用在社會(huì)治理之中,如果看待這些技術(shù)的應(yīng)用,以及帶來的影響,也為這場(chǎng)研討會(huì)所關(guān)注。中國(guó)農(nóng)業(yè)大學(xué)人文與發(fā)展學(xué)院講師曲甜認(rèn)為,基層治理智能化轉(zhuǎn)型,目前關(guān)于“場(chǎng)景”的開發(fā)和討論已經(jīng)非常多了。但是,關(guān)于智能技術(shù)與治理手段的結(jié)合,似乎還不充分。特別是在鄉(xiāng)村地區(qū),鄉(xiāng)村有很多基于熟人社會(huì)、傳統(tǒng)文化形成的治理手段,在長(zhǎng)期實(shí)踐中取得了很好的治理效果,如何讓現(xiàn)代智能技術(shù)和傳統(tǒng)治理手段有機(jī)結(jié)合而不是相互排斥,也是基層治理智能化轉(zhuǎn)型應(yīng)當(dāng)關(guān)注的問題。

  人工智能倫理應(yīng)與具體國(guó)情相結(jié)合

  由于人工智能顛覆了很多傳統(tǒng)認(rèn)知,解構(gòu)了原有的生產(chǎn)關(guān)系,有關(guān)人工智能倫理的討論也在各個(gè)國(guó)家開展。但研究發(fā)現(xiàn),每個(gè)國(guó)家對(duì)待它的態(tài)度不盡相同。

  報(bào)告對(duì)比發(fā)現(xiàn),美國(guó)重視“培養(yǎng)公眾對(duì)人工智能技術(shù)的信任和信心”,推動(dòng)人工智能創(chuàng)新的三個(gè)基礎(chǔ)性原則是“確保公眾參與”;“限制監(jiān)管過度”,要求監(jiān)管機(jī)構(gòu)在考慮提出與部署人工智能應(yīng)用程序相關(guān)的法規(guī)之前,必須仔細(xì)評(píng)估風(fēng)險(xiǎn)和成本效益,重點(diǎn)是建立靈活的、基于性能的框架,而不是一刀切的法規(guī);以及“促進(jìn)可信賴的人工智能”;在治理標(biāo)準(zhǔn)上鼓勵(lì)向私營(yíng)部門和學(xué)術(shù)界提供政府?dāng)?shù)據(jù)集,促進(jìn)機(jī)器學(xué)習(xí)模型的訓(xùn)練,形成政企研優(yōu)勢(shì)互補(bǔ)和數(shù)據(jù)資源的流動(dòng)和利用。而歐盟的監(jiān)管措施使人工智能企業(yè)的倫理治理更加規(guī)范,但相關(guān)限制性規(guī)定使歐盟人工智能企業(yè)在全球技術(shù)發(fā)展和應(yīng)用中呈現(xiàn)相對(duì)劣勢(shì)。

  清華大學(xué)數(shù)據(jù)治理研究中心項(xiàng)目研究員嚴(yán)宇表示,各國(guó)都已經(jīng)看到人工智能技術(shù)對(duì)社會(huì)的影響,總體可以分為樂觀派和悲觀派兩大派系。美國(guó)為了保持其在人工智能領(lǐng)域的全球領(lǐng)先地位,既看重發(fā)展,又會(huì)考慮倫理風(fēng)險(xiǎn)。“但總體來說美國(guó)仍然是以發(fā)展和創(chuàng)新優(yōu)先?!?/p>

  嚴(yán)宇稱,不同于美國(guó)以發(fā)展和創(chuàng)新為先的監(jiān)管體系,歐盟的監(jiān)管體系更加嚴(yán)格?!皻W盟人工智能企業(yè)的數(shù)量、規(guī)模和影響力雖然排在美國(guó)和中國(guó)之后,但是它的人工智能監(jiān)管和治理卻在全球有相當(dāng)?shù)挠绊懥?,形成了以?qiáng)監(jiān)管為核心特征的治理體系?!比毡緞t試圖從中尋找平衡,一方面肯定人工智能的重要作用,另外一方面又要強(qiáng)調(diào)重視它的負(fù)面影響,為此也建立了一系列倫理的準(zhǔn)則。

  上述報(bào)告還提出了人工智能治理的“中國(guó)方案”:“發(fā)揮倫理委員會(huì)作用、設(shè)立倫理道德基本原則”,企業(yè)人工智能委員會(huì)可制定內(nèi)部倫理風(fēng)險(xiǎn)管理政策、協(xié)調(diào)企業(yè)各部門倫理風(fēng)險(xiǎn)應(yīng)對(duì);“因地制定治理細(xì)則、構(gòu)建倫理標(biāo)準(zhǔn)體系”,從眾多倫理原則中提煉共識(shí)性通則,探索如何轉(zhuǎn)化為全面覆蓋、分級(jí)分類、科學(xué)合理、切實(shí)可用的標(biāo)準(zhǔn)細(xì)則,并通過技術(shù)研發(fā)實(shí)現(xiàn)落地;“制定智能治理法律法規(guī)、規(guī)范人工智能開發(fā)使用”,由于新技術(shù)快速發(fā)展,倉促立法不利于法律條文穩(wěn)定性和可能限制新技術(shù)發(fā)展,可用行政文件和行業(yè)規(guī)范暫替法律條文來積累經(jīng)驗(yàn);“提高公眾智能素養(yǎng)、暢通社會(huì)監(jiān)督渠道”“出臺(tái)倫理道德培訓(xùn)手冊(cè)、增強(qiáng)責(zé)任主體風(fēng)險(xiǎn)意識(shí)”“搭建倫理治理共同體、加強(qiáng)人工智能國(guó)際合作”。

  清華大學(xué)社科學(xué)院副院長(zhǎng)、長(zhǎng)聘副教授孟天廣指出,社會(huì)大眾和科學(xué)家在人工智能倫理關(guān)切上存在分歧,“科學(xué)家通常看到的倫理問題過于前瞻性,而社會(huì)大眾則在日常體驗(yàn)人工智能時(shí)形成倫理關(guān)切。”人工智能倫理治理應(yīng)該平衡“自上而下”和“自下而上”兩種視角,構(gòu)建共建共治共享的治理機(jī)制。他建議,人工智能倫理及其治理體系需要構(gòu)建包容監(jiān)管機(jī)構(gòu)、科技企業(yè)、科技社群、算法工程師、社會(huì)大眾等利害相關(guān)者參與的共治共同體。

  根據(jù)北京化工大學(xué)文法學(xué)院副教授趙娟的研究,人工智能倫理應(yīng)考慮的一對(duì)關(guān)系是倫理本身的關(guān)系。不同國(guó)家、不同地區(qū)、甚至不同主體可能對(duì)同一個(gè)倫理價(jià)值的認(rèn)知存在差異。在此基礎(chǔ)上,我們所提出來的人工智能治理框架能否在全球范圍內(nèi)形成倫理價(jià)值觀上的可接受性,也是構(gòu)建整個(gè)人工智能治理框架的關(guān)鍵。

  中共中央黨校政治和法律教研部副教授李鋒則強(qiáng)調(diào),人工智能倫理本身就不是一個(gè)完全脫離社會(huì)經(jīng)濟(jì)狀況、脫離社會(huì)發(fā)展和政府形態(tài)的現(xiàn)象,否則我們就無法理解美國(guó)和歐盟在規(guī)制人工智能發(fā)展方面的巨大差異。“我們今天去看人工智能的倫理道德問題,肯定是要結(jié)合我們社會(huì)經(jīng)濟(jì)發(fā)展?fàn)顩r,甚至國(guó)家對(duì)人工智能等領(lǐng)域的規(guī)劃,來談如何平衡人工智能倫理治理和發(fā)展問題?!?/p>

  復(fù)旦大學(xué)國(guó)際關(guān)系與公共事務(wù)學(xué)院教授陳水生認(rèn)為,為人工智能創(chuàng)造一個(gè)比較好的發(fā)展環(huán)境或創(chuàng)新環(huán)境,推動(dòng)人工智能技術(shù)、應(yīng)用發(fā)展,可能會(huì)對(duì)整個(gè)人類社會(huì)帶來更多的正向功能和價(jià)值。技術(shù)監(jiān)管更多地是一種平衡的藝術(shù),即如何平衡技術(shù)發(fā)展、技術(shù)應(yīng)用和技術(shù)監(jiān)管的關(guān)系,如何平衡經(jīng)濟(jì)、社會(huì)和政治的關(guān)系,以及如何平衡風(fēng)險(xiǎn)與倫理,技術(shù)與規(guī)則之間的關(guān)系。



  轉(zhuǎn)自:中新經(jīng)緯

  【版權(quán)及免責(zé)聲明】凡本網(wǎng)所屬版權(quán)作品,轉(zhuǎn)載時(shí)須獲得授權(quán)并注明來源“中國(guó)產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)”,違者本網(wǎng)將保留追究其相關(guān)法律責(zé)任的權(quán)力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個(gè)人觀點(diǎn),不代表本網(wǎng)觀點(diǎn)和立場(chǎng)。版權(quán)事宜請(qǐng)聯(lián)系:010-65363056。

延伸閱讀

熱點(diǎn)視頻

高質(zhì)量發(fā)展穩(wěn)步推進(jìn) 中國(guó)經(jīng)濟(jì)基本面持續(xù)向好 高質(zhì)量發(fā)展穩(wěn)步推進(jìn) 中國(guó)經(jīng)濟(jì)基本面持續(xù)向好

熱點(diǎn)新聞

熱點(diǎn)輿情

?

微信公眾號(hào)

版權(quán)所有:中國(guó)產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)京ICP備11041399號(hào)-2京公網(wǎng)安備11010502035964