聚焦 要聞 證券 基金 保險 銀行 上市公司 IPO 科創(chuàng)板 汽車 新三板 科技 房地產

打開人工智能“黑盒” 華夏基金首席數(shù)據(jù)官參與撰寫書籍上市


中國產業(yè)經濟信息網   時間:2022-05-18





  人工智能與人類緊密的結合,使得智能化的人機協(xié)同成為大勢所趨。而人工智能技術的高速發(fā)展也面臨諸多困難與挑戰(zhàn)。其中,如何把AI技術的基本原理,其自動決策機制、潛在風險及防范措施,以通俗易懂的方式向人類說明,成為發(fā)展可信賴、安全可靠人工智能的首要任務。在此背景下,華夏基金首席數(shù)據(jù)官陳一昕、楊強、范力欣、朱軍、張拳石、朱松純、陶大程、崔鵬、周少華、劉琦、黃萱菁、張永鋒等12位來自機器學習、計算機視覺、自然語言處理,以及在生物醫(yī)療、金融、推薦系統(tǒng)等應用領域的著名專家,聯(lián)合創(chuàng)作了《可解釋人工智能導論》一書,現(xiàn)已重磅上市!

  《可解釋人工智能導論》一書全面介紹可解釋AI的基礎知識、理論方法和行業(yè)應用。全書分為三部分,共11 章。第1章揭示基于數(shù)據(jù)驅動的人工智能系統(tǒng)決策機制,提出一種基于人機溝通交互場景的可解釋人工智能范式。第2~5 章介紹各種可解釋人工智能技術方法,包括貝葉斯方法、基于因果啟發(fā)的穩(wěn)定學習和反事實推理、基于與或圖模型的人機協(xié)作解釋、對深度神經網絡的解釋。第6~10 章分別介紹可解釋人工智能在生物醫(yī)療、金融、計算機視覺、自然語言處理、推薦系統(tǒng)等領域的應用案例,詳細說明可解釋性在司法、城市管理、安防和制造等實際應用中發(fā)揮的積極作用。第11 章對全書進行總結,并論述可解釋人工智能研究面臨的挑戰(zhàn)和未來發(fā)展趨勢。

  為什么要強調人工智能的可解釋性?可解釋性在日常生活當中比比皆是,比如一位醫(yī)生在向一位病人解釋診斷結果和治療措施時,要給病人一個好的病因和治療解釋,讓病人放心。但由于核心AI算法,尤其是深度學習算法,通常運行在類似于“黑盒”中的工作模式下,導致AI系統(tǒng)的運行結果,并不能以合乎情理的方式被人類所理解和認同。在涉及人身財產安全的重大領域中,如金融、醫(yī)療、自動駕駛等,模型的可解釋性成了決定用戶能否信任模型的關鍵。

  華夏基金首席數(shù)據(jù)官陳一昕提到,在金融領域中,機器學習的可解釋性往往需要面對多種對象,包括開發(fā)者、使用用戶、應用用戶、金融監(jiān)管、社會大眾等。不同對象所看重的“可解釋性”重點雖各不相同,但都有其必要性。對于開發(fā)者來說,算法的“可解釋性”可以保證后續(xù)調優(yōu)改進過程的有效進行;對于金融工具的使用用戶來說,“可解釋性”則可以使機器學習模型像其他傳統(tǒng)金融理論或公式一樣被理解與接受;對于應用用戶,如使用模型的投資研究人員,“可解釋性”可以為模型給出的不同資產定價結果做出詳細說明;對于金融監(jiān)管者來說,“可解釋性”可以保證其從全流程上對AI模型進行約束并防范金融風險;而對于社會大眾來說,任何一門學科的深入發(fā)展都是不可或缺的,人們需要對金融機構的決策進行審慎監(jiān)督。

  金融人工智能是一個在不斷發(fā)展的領域,隨著社會共識的加深以及金融人工智能可解釋性相關的法律、監(jiān)管規(guī)章的持續(xù)完善,可解釋性將成為金融AI能夠長期可持續(xù)應用的必要原則之一。據(jù)了解,目前華夏基金正就將可解釋機器學習在基金業(yè)務領域的落地應用進行積極探索和嘗試,將AI技術作為一種輔助性的投資工具,集中應用在輔助評估海量數(shù)據(jù)集、動態(tài)股票篩選、提高投資效率等領域。

1.png



  轉自: 華夏基金

  【版權及免責聲明】凡本網所屬版權作品,轉載時須獲得授權并注明來源“中國產業(yè)經濟信息網”,違者本網將保留追究其相關法律責任的權力。凡轉載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網觀點和立場。版權事宜請聯(lián)系:010-65363056。

延伸閱讀

?

版權所有:中國產業(yè)經濟信息網京ICP備11041399號-2京公網安備11010502035964