原創(chuàng) 要聞 證券 基金 保險 銀行 上市公司 IPO 科創(chuàng)板 汽車 新三板 科技 房地產(chǎn)

國家新一代AI治理專委會委員:將倫理與治理嵌入AI全生命周期


中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)   時間:2021-08-07





圖蟲創(chuàng)意-921688101898551345.jpg

   “如果從人工智能發(fā)展的瓶頸和現(xiàn)狀看,我們可以說現(xiàn)在的人工智能并不可信?!?/p>

  中國科學院自動化研究所研究員、國家新一代人工智能治理專委會委員、聯(lián)合國教科文組織人工智能倫理特設專家組專家曾毅在近日舉行的首屆全球數(shù)字經(jīng)濟大會人工智能產(chǎn)業(yè)治理主題論壇上作出以上表述。

  曾毅的主題演講題目為《負責任的人工智能:可持續(xù)發(fā)展與治理的深度協(xié)同》。他認為,政策的良性引導已經(jīng)開始了,但所有的設想的技術落地卻困難重重。禁用特定的技術是不解決問題的,應當將倫理與治理嵌入人工智能產(chǎn)品的全生命周期,并形成政府、學術界、企業(yè)、公民社會、媒體、用戶、服務提供商等多方主動共治的良性生態(tài)。

  作為引領第四次科技革命的戰(zhàn)略性技術,人工智能給社會建設和經(jīng)濟發(fā)展帶來了重大而深遠的影響。不過人工智能的治理問題也愈發(fā)重要。雖然人工智能在純技術層面是價值中立的,但在實際應用中,兼具創(chuàng)造性和破壞性。數(shù)據(jù)隱私、算法偏見、技術濫用等安全問題正給社會公共治理與產(chǎn)業(yè)智能化轉型帶來嚴峻挑戰(zhàn)。

  人臉識別濫用、數(shù)據(jù)隱私侵犯等人工智能倫理問題在近年逐步受到法律規(guī)范。就在近期,7月28日,最高人民法院召開新聞發(fā)布會,發(fā)布《最高人民法院關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規(guī)定》,對濫用人臉識別問題作出司法統(tǒng)一規(guī)定。國際上,2018年出臺的歐盟的通用數(shù)據(jù)保護條例以嚴厲執(zhí)行著稱,也正在施行中。

  曾毅提出一個問題,為什么西方社會人臉識別被禁用,但是企業(yè)沒有很大反對聲音?“一個不爭的事實是,企業(yè)可以找到替代方案,”曾毅進一步闡述,當人臉識別被禁用時,固態(tài)識別、指紋識別、聲紋識別被使用,其風險與人臉識別相同,但因為這些方法沒有進入公眾視野,所以沒有引起公眾的關注。

  此前《華盛頓郵報》也有報道,有攻擊者假冒公司CEO利用音頻版深度偽造技術制造了一段虛假語音,最終成功敲詐一家英國能源公司24萬美元。被敲詐公司的保險公司 Euler Hermes的一位女發(fā)言人曾說:“該軟件能夠模仿聲音,包括音調、標點符號和德國口音?!?/p>

  曾毅認為,人臉識別技術的禁用并不代表問題被徹底解決。人臉識別存在的風險,如對隱私的泄露、對公平性的侵犯、技術的不成熟性導致種族和性別之間的歧視等,在任何一個生物特征識別的方法中都存在。

  包括歐盟通用數(shù)據(jù)保護條例中用戶的被遺忘權(數(shù)據(jù)主體有權要求數(shù)據(jù)控制者刪除與其相關的個人數(shù)據(jù),數(shù)據(jù)控制者有義務刪除數(shù)據(jù)主體的個人數(shù)據(jù),并不得無故拖延),用戶可以要求企業(yè)從數(shù)據(jù)庫中刪除自己的數(shù)據(jù)。但曾毅表示,“如何在人工智能的模型和服務中刪除用戶的數(shù)據(jù)和特征,這個在技術上實際存在極大困難,幾乎沒有人可以做到在一個深度學習模型中刪除單個用戶對這個結果的影響。而如果重新訓練人工智能模型,一些大模型訓練一次就需要五百萬,于是在更多時候,選擇不去更新就是現(xiàn)狀?!?/p>

  當下存在保護用戶數(shù)據(jù)的一些方法,但是其代價是犧牲其他的方面。曾毅以聯(lián)邦學習舉例,其可以在不分享自己數(shù)據(jù)的情況下在數(shù)據(jù)模型上進行聯(lián)合學習。這樣保護了用戶隱私數(shù)據(jù),但也回避了一個問題——用戶的知情同意,用戶有沒有同意把數(shù)據(jù)以數(shù)據(jù)模型的形式共享給其他的企業(yè)和應用?

  也比如差分隱私(差分隱私模型中,攻擊者的計算能力及其所獲取的輔助信息不會影響隱私保護程度),曾毅認為這在數(shù)據(jù)庫時代效果很好,但引入人工智能模型以后,會使人工智能的識別率下降10%到30%。那么對企業(yè)來說,為了保護隱私而使識別率下降10%到30%,這可能也是非常困難的選擇。

  “人工智能企業(yè)是談倫理最多的公司,但出倫理的問題也最多,大公司雖然有自己的倫理研究團隊,但很難將倫理研究的成果應用到設計、研發(fā)、部署這些步驟中,有時候僅僅起一個倫理洗白的作用,”曾毅認為。

  由此,曾毅呼吁,企業(yè)應該成為人工智能治理的重要參與者,但不只有企業(yè)。設計者、研發(fā)者、供應者、部署者、管理者等都需要承擔自己的責任,真正實現(xiàn)敏捷治理和多方的共治。近期,北京智源人工智能研究院和中科院自動化所共同研發(fā)了人工智能治理公共的服務平臺,把人工智能從監(jiān)管變成公共服務,向企業(yè)和研發(fā)機構特別是沒有能力開展企業(yè)合規(guī)、倫理委員會的建設,治理委員會建設這樣的企業(yè),去進行公開、免費的服務。

  曾毅現(xiàn)場提出了一個解決方案,將倫理貫穿時于設計、研究、開發(fā)、使用的每個環(huán)節(jié),并且倫理的研究團隊以及研發(fā)團隊,同步保持跟政府、學術界、媒體、潛在用戶和服務、提供商高度交流,把存在的倫理風險防患于未然,在每個人工智能的流程中的每個環(huán)節(jié),將倫理治理嵌入到全流程和全生命周期中。

  對于治理先行還是發(fā)展優(yōu)先的問題,曾毅認為他們從來不是競爭關系,而是人工智能穩(wěn)健發(fā)展兩大前提,是深度協(xié)作的關系,缺一不可。也即通過人工智能的善治和可持續(xù)發(fā)展,真正實現(xiàn)為人類與生態(tài)創(chuàng)建可持續(xù)的人工智能。

  如果人工智能的長遠風險可能三五十年可能不會發(fā)生,現(xiàn)在討論是不是過于提前?曾毅的回答是,“我們面臨的人工智能倫理技術、安全風險問題,不是所有的問題在30年之內就能夠找到答案,所以需要企業(yè)、學術機構形成真正多方共治的共同體,來面對人工智能將面臨的近期、遠期的問題,真正使人工智能賦能由我們人類其他的生命、環(huán)境構成的未來的和諧共生的社會。”(記者:邵文)





  轉自:澎湃新聞

  【版權及免責聲明】凡本網(wǎng)所屬版權作品,轉載時須獲得授權并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關法律責任的權力。凡轉載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權事宜請聯(lián)系:010-65363056。

延伸閱讀

?

微信公眾號

版權所有:中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)京ICP備11041399號-2京公網(wǎng)安備11010502035964