誰才是讓AI產(chǎn)生偏見的幕后推手?


來源:中國產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)   時(shí)間:2020-07-15





美國麻省理工學(xué)院媒體實(shí)驗(yàn)室研究項(xiàng)目顯示,人工智能識(shí)別淺色皮膚男性的平均錯(cuò)誤率不超過1%,識(shí)別深色皮膚女性的平均錯(cuò)誤率達(dá)35%……


  人臉識(shí)別所導(dǎo)致的偏見問題一直受到廣泛關(guān)注。近期,一篇關(guān)于圖像超分辨率的論文引發(fā)了對于產(chǎn)生偏見原因的新爭論。


  網(wǎng)友利用論文中的開源代碼進(jìn)行了模型推理,在使用時(shí)發(fā)現(xiàn),非白人面孔的高糊照片被還原成了一張白人面孔。對此,2018年圖靈獎(jiǎng)得主、AI領(lǐng)軍人物楊立昆(YannLeCun)在推特上指出,當(dāng)數(shù)據(jù)有偏見時(shí),機(jī)器學(xué)習(xí)系統(tǒng)就變得有偏見。而這一觀點(diǎn),掀起一場爭論浪潮。有人說,機(jī)器學(xué)習(xí)系統(tǒng)產(chǎn)生偏見不應(yīng)只歸咎于數(shù)據(jù)集,這種甩鍋的做法是不公平的,還有技術(shù)、人類觀念等原因。


  現(xiàn)在還沒有100%無偏見的數(shù)據(jù)集


  隨著人工智能時(shí)代的到來,人臉識(shí)別技術(shù)正被越來越廣泛地應(yīng)用在執(zhí)法、廣告及其他領(lǐng)域。然而,這項(xiàng)技術(shù)在識(shí)別性別、膚色等過程中,存在著一定偏見。


  “在美國,人臉識(shí)別系統(tǒng)中白人男性的識(shí)別率最高,而黑皮膚女性的識(shí)別率則最低;在亞洲國家的人臉識(shí)別系統(tǒng)中黃種人的識(shí)別率相比白種人的識(shí)別率差距就會(huì)小一些?!备V荽髮W(xué)數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院、福建省新媒體行業(yè)技術(shù)開發(fā)基地副主任柯逍博士說。


  這次陷入爭論中心的人臉識(shí)別偏見問題其實(shí)是一個(gè)存在很久、熱度很高的話題。


  早前,美國麻省理工學(xué)院媒體實(shí)驗(yàn)室主導(dǎo)的一項(xiàng)名為《GenderShades》的研究項(xiàng)目在研究了各個(gè)前沿科技公司的面部識(shí)別系統(tǒng)后發(fā)現(xiàn),各系統(tǒng)在識(shí)別男性面臉與淺色面臉方面表現(xiàn)更佳,淺色皮膚男性的平均識(shí)別錯(cuò)誤率不超過1%,淺色皮膚女性的平均識(shí)別錯(cuò)誤率約為7%,深色皮膚男性的平均識(shí)別錯(cuò)誤率約為12%,深色皮膚女性的平均識(shí)別錯(cuò)誤率則高達(dá)35%。


  那么本次爭議中,楊立昆指出的數(shù)據(jù)集問題是如何產(chǎn)生偏見的?有無100%沒有偏見的數(shù)據(jù)集?“不均衡的數(shù)據(jù),導(dǎo)致了系統(tǒng)在學(xué)習(xí)時(shí),更好地?cái)M合了比重較大的數(shù)據(jù),而對占比小的數(shù)據(jù)的擬合則表現(xiàn)不佳,這就可能最終導(dǎo)致了偏見的產(chǎn)生?!笨洛薪榻B說,如一個(gè)常見的人臉識(shí)別數(shù)據(jù)集LFW,數(shù)據(jù)集中有近77%的男性,同時(shí)超過80%是白人。


  “目前,幾乎可以肯定的是沒有100%無偏見的數(shù)據(jù)集。”柯逍舉例說,在收集數(shù)據(jù)時(shí),可以針對性地讓男性與女性數(shù)目一樣,甚至也可以讓各種膚色的數(shù)據(jù)數(shù)目都一樣。但是,其中可能大部分人是沒有戴眼鏡的,這可能就對戴眼鏡的人進(jìn)行識(shí)別時(shí)帶來了偏見。進(jìn)一步講,各個(gè)年齡段的人臉也很難做到完全一致,導(dǎo)致最后學(xué)習(xí)到的模型可能對戴眼鏡、年長或年幼的人臉產(chǎn)生偏見。所以有時(shí)候討論數(shù)據(jù)偏見的產(chǎn)生,會(huì)發(fā)現(xiàn)其產(chǎn)生的原因是考慮問題的角度不同。


  出現(xiàn)偏見不能只歸咎于數(shù)據(jù)


  眾多專家也指出,數(shù)據(jù)可能是機(jī)器學(xué)習(xí)系統(tǒng)中偏見的來源,但不是唯一的來源。


  其實(shí),在本次爭議中,楊立昆在推特中已經(jīng)很明確地表示,他的本意并不是說問題都出在數(shù)據(jù)集上,只是針對這篇論文,其算法在特定場景下,換個(gè)數(shù)據(jù)集就能解決問題,但并不是說所有的機(jī)器學(xué)習(xí)系統(tǒng)偏見都來源于數(shù)據(jù)集。


  那么,誰才是產(chǎn)生偏見真正的“幕后推手”?


  AI學(xué)習(xí)過程應(yīng)該是架構(gòu)、數(shù)據(jù)、訓(xùn)練算法等的相互作用。算法包括了特征的選擇、損失函數(shù)的選擇、訓(xùn)練方法的選擇以及超參數(shù)調(diào)節(jié)等,其本身的缺陷也是偏見產(chǎn)生的一個(gè)原因。


  2019年12月,美國國家標(biāo)準(zhǔn)技術(shù)研究院進(jìn)行的一項(xiàng)研究發(fā)現(xiàn),在大多數(shù)當(dāng)前評估的人臉識(shí)別算法中,跨人種差異確實(shí)存在廣泛的準(zhǔn)確性偏差。


  柯逍介紹說,在算法設(shè)計(jì)的時(shí)候,往往會(huì)選擇L1損失函數(shù)或者L2損失函數(shù)。若在將一個(gè)低分辨率人臉圖像還原成高分辨率人臉圖像的方法中,使用L2損失函數(shù),得到的大多數(shù)人臉圖像更像白人;而使用L1損失函數(shù),得到大多數(shù)人臉圖像更像黑人。這說明由于損失函數(shù)的選擇不同,某個(gè)群體(黑人或白人)在一定程度上就會(huì)受算法的忽視,進(jìn)而產(chǎn)生偏見。


  這當(dāng)中還存在另一種情況,假如數(shù)據(jù)帶有少量的偏見,算法系統(tǒng)會(huì)將其放大,并變得更具有偏見。一項(xiàng)研究表明,如果初始數(shù)據(jù)中,下廚與女性的聯(lián)系概率是66%,將這些數(shù)據(jù)喂給人工智能后,其預(yù)測下廚與女性聯(lián)系起來的概率會(huì)放大到84%。一般來說,機(jī)器學(xué)習(xí)系統(tǒng)會(huì)選擇最符合通用情況的策略,然而這樣會(huì)導(dǎo)致一些非典型情況或較為特殊情況被忽略。


  除此之外,產(chǎn)生偏見的原因還有相似性的偏見。信息推送系統(tǒng)總會(huì)向用戶推薦他已經(jīng)看到、檢索過的相關(guān)內(nèi)容。最終的結(jié)果是導(dǎo)致流向用戶的信息流都是基于現(xiàn)存的觀點(diǎn)和看法?!跋到y(tǒng)會(huì)自動(dòng)幫助用戶屏蔽與他們意見相左的信息,這就催生了一個(gè)信息泡沫,用戶看到的都是人工智能讓你看到的。這種偏見根本上也是數(shù)據(jù)與算法共同作用產(chǎn)生的。”柯逍說。


  “總體而言,偏見還是源于規(guī)則制定者?!敝袖J網(wǎng)絡(luò)人工智能產(chǎn)品總監(jiān)葉亮說,工程師從頭到尾參與了整個(gè)系統(tǒng)設(shè)計(jì),尤其是機(jī)器學(xué)習(xí)的目標(biāo)設(shè)定。算法就好像一只嗅探犬,當(dāng)工程師向它展示特定東西的氣味后,它才能夠更加精準(zhǔn)地找到目標(biāo)。


  算法糾偏工具已經(jīng)上崗


  近期,國際多家機(jī)構(gòu)相繼宣布禁用人臉識(shí)別技術(shù)。有色人種被還原成白人的事件,再次掀起了人們對于人工智能系統(tǒng)產(chǎn)生偏見的批判浪潮,也再次警醒人們,技術(shù)帶有偏見所帶來的潛在危機(jī)。


  偏見可能導(dǎo)致無辜者蒙冤。在2018年夏天,英國媒體就報(bào)道過,由于人臉識(shí)別技術(shù)的誤判,導(dǎo)致一名年輕黑人男性被誤認(rèn)為嫌疑犯,在公眾場合被警察搜身。


  也有報(bào)告顯示,一些國外執(zhí)法機(jī)構(gòu)可以根據(jù)AI識(shí)別出的發(fā)色、膚色和面部特征對視頻中的人物進(jìn)行檢索。這種技術(shù)上的偏見也在一定程度上放大了人們的偏見。


  除了對人種與性別的識(shí)別偏差之外,人臉識(shí)別技術(shù)還因其在侵犯隱私方面的問題而引起擔(dān)憂。2020年初,美國一家人臉識(shí)別技術(shù)公司便受到了嚴(yán)密的審查,有關(guān)部門發(fā)現(xiàn),其面部識(shí)別工具由超過30億張圖像構(gòu)建而成,然而這些圖像大部分都是通過抓取社交媒體網(wǎng)站收集的,并且已被許多企業(yè)廣泛使用。


  偏見存在的同時(shí),一批新興的算法糾偏工具也涌入了人工智能。


  早在2018年,臉書曾發(fā)布一個(gè)算法模型,表示會(huì)在算法因種族、性別、年齡等因素做出不公正判斷時(shí)發(fā)出警告以提醒開發(fā)者;2019年麻省理工學(xué)院就提出了一種糾偏算法,可以通過重新采樣來自動(dòng)消除數(shù)據(jù)偏見。


  那么克服偏見還需要人工智能技術(shù)做出哪些努力?“開源方法和開源技術(shù)都有著極大的潛力改變算法偏見?!比~亮指出,開源方法本身十分適合消除偏見程序,開源社區(qū)已經(jīng)證明它能夠開發(fā)出強(qiáng)健的、經(jīng)得住嚴(yán)酷測試的機(jī)器學(xué)習(xí)工具。如果線上社團(tuán)、組織和院校能夠接受這些開源特質(zhì),那么由開源社區(qū)進(jìn)行消除算法偏見的機(jī)器設(shè)計(jì)將會(huì)順利很多。


  柯逍認(rèn)為,可以看出偏見基本來源于數(shù)據(jù)與算法,加強(qiáng)對人工智能所使用的數(shù)據(jù)、算法以及模型的評估,能夠在一定程度上緩解潛在的、可導(dǎo)致偏見與歧視的因素。同時(shí),人工智能的偏見其實(shí)都是人類偏見的反映與放大,因此人們放下偏見才是最根本的解決方案。(記者 謝開飛 通訊員 許曉鳳 王憶希)



  轉(zhuǎn)自:科技日報(bào)

  【版權(quán)及免責(zé)聲明】凡本網(wǎng)所屬版權(quán)作品,轉(zhuǎn)載時(shí)須獲得授權(quán)并注明來源“中國產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)”,違者本網(wǎng)將保留追究其相關(guān)法律責(zé)任的權(quán)力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個(gè)人觀點(diǎn),不代表本網(wǎng)觀點(diǎn)和立場。版權(quán)事宜請聯(lián)系:010-65367254。

延伸閱讀

熱點(diǎn)視頻

提振信心 釋放潛力 市場明顯回暖 提振信心 釋放潛力 市場明顯回暖

熱點(diǎn)新聞

熱點(diǎn)輿情

特色小鎮(zhèn)

?

微信公眾號(hào)

版權(quán)所有:中國產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)京ICP備11041399號(hào)-2京公網(wǎng)安備11010502035964