人工智慧 AI 機器學習 深度學習 演算法黑盒化

應用開發小心決策偏差 測試驗證困難成發展瓶頸

黑盒子阻礙開發應用 提昇透明化XAI成重點

2019-07-30
「可解釋AI」可謂AI技術發展的下一個重點,藉此解決使用上的疑慮,可望成為進一步推昇AI應用擴大的新動能。對廠商而言,開發AI應用服務之同時,思考打開演算法黑盒的方法,亦是重要的課題。

 

近來由於人工智慧(AI)的技術突破與快速發展,不僅在各行各業之應用領域日益廣泛,亦逐漸改變工作、購物、娛樂等日常生活的樣貌。在資料大量生成,快速累積下,運用具處理速度與效率優勢的機器學習技術,尤其是「深度學習」成為業者開發的重點,相關應用方案陸續推出。應用層次則從辨識、分析,逐步提高至推論、決策,依賴程度持續升高。

黑盒下的決策出現偏差結果

機器學習從大量資料中不斷學習訓練,建立模型並持續進行演算法優化,理論上可提升預測準確度與決策可靠度。然而,機器學習經過數以百萬計的測試,以得到最佳方案的過程,都在黑盒子的狀況下進行,使用者無法得知與了解其中邏輯與原因,加上學習的資料大都來自人類,無可避免亦將學到人們對特定人事物的固有偏見與主觀認知。事實上,因此導致判斷偏差結果的案例頗多。

2015年7月,Google Photos服務被發現將黑人的相片標上黑猩猩的標籤,迫使Google出面道歉,並表示正在研究更好的解決之道,但至今事隔三年多似乎仍無法提出根本有效的解決方案。另2016年3月,Microsoft的聊天機器人Tay在Twitter上與各國網民互動,卻在不到24小時,被教成滿口種族歧視等言論的機器人,而不得不以下架收場。

由此可見,儘管市面上已有許多運用機器學習相關的服務推出,廠商在應用開發上仍面臨諸多有待克服的難題。因此,企業實際應用上亦應有此認知,尤其是進行與人有關的分析辨識作業更需審慎。

AI演算法驗證不易成為發展瓶頸

沒有正確的資料,機器學習演算法也很難做出正確的決策。若該演算法機器是使用既有的資料來訓練,只要資料內容存在偏見,偏見就會被重現。而機器的學習初期,需要大量人力進行圖像資料的標籤作業,過程中很難要避免個人主觀認定,甚至惡意歧視等問題,要完全消除這些偏見並不容易。

此外,AI機器學習無法使用傳統的軟體測試方法進行驗證,也是發展的一大瓶頸。傳統軟體程式可透過測試確定是否存在bug,並依時間與條件的變化,開發更新版本,重複開發、測試、發佈的流程。機器學習的模式則是資料不斷生成,並持續輸入系統,自動產生演算法,並與新資料輸入產生連動,導致相關測試不易。

雖然機器學習存在出現偏差、測試驗證困難的問題,但其在語音、圖像辨識等方面的處理速度具有絕對優勢之下,仍被廣泛使用與接受。但是,目前積極採用深度學習等機器學習技術者,大都是一般影像辨識或圍棋等不需嚴謹推論依據的領域,在企業內的應用,也以不影響業績或業務,進行概念驗證(PoC)性質居多。基本上,此類測試性應用即使出現推論錯誤,不會造成太大影響,對精確度要求不那麼嚴苛,亦不會追究推論依據或妨礙應用。

精確度外更重視推論依據

在AI應用持續往醫療、法律、金融、交通等領域發展之下,應用亦由商品推薦、廣告投放,延伸到醫療診斷、商業決策,乃至自動駕駛等更為複雜的層次。攸關民眾生死、財富增減或企業業績消長等具風險性應用日益增加,而這類應用除要求高精確度之外,亦重視推論依據。

現階段在醫療診斷或即時控制等要求高可信度的應用,大都對無法解釋推論根據的既有解決方案抱持審慎態度。此乃由於若無法解釋推論依據,將對AI應用軟體的開發和運用造成阻礙,因為不了解對推論有重大影響的因素,就無法調整或修改演算法。例如,工廠生產線不可能一直不變地持續使用開始引進的AI解決方案,只要目的或對象改變,就必須配合相關變動,重新設計AI的演算法。因此,演算法黑盒化的相關問題開始被突顯與關注,亦開始面臨市場考驗。

產官學研積極投入「可解釋AI」研究

有鑑於此,目前Google、Microsoft、Fujitsu、NEC等大廠以及學研單位等皆已投入「可解釋AI」(Explainable AI,XAI)的相關研究,企圖開發複雜的AI逆向工程或讓AI具備自我解釋能力等新方法,打開機器學習演算法的黑盒子,讓系統更為透明與可靠。

美國國防高等研究計畫署(DARPA)則已投入「XAI」研發推動方案的五年計畫,包括多家知名大學及企業皆參與其中。該計畫以深度學習等各種機器學習技術為對象,目標為在2021年前,開發出人類可以理解的演算法,以及可解釋推論依據的介面。

此外,歐盟已宣布2018年5月25日正式實施 「通用資料保護條例」(GDPR),規定用戶可要求公司對AI系統自動產生的決策做出解釋,亦即企業之任何決策,若可能影響公眾利益,就必須說明其推論邏輯。該法規的頒佈與實施,代表各國政府開始正視AI演算法黑盒化之各種潛在風險的第一步,亦提高相關解決方案開發的迫切性。

解決AI黑盒推昇新動能

從使用者角度觀之,希望決策系統之資料輸入、處理和輸出機制透明,進而有效的監控,是理所當然的。任何一個AI決策系統,若處於「黑盒」狀態,難以獲得使用者的認同與接受,終究會出現推廣瓶頸。「XAI」可以有效地實現完全的過程透明化,並說明做出決策成因,能強化使用者的信心與信任,可謂AI技術發展的下一個重點,可望成為進一步推昇AI應用擴大的新動能。對廠商而言,開發AI應用服務之同時,思考打開演算法黑盒的方法,亦是重要的課題。 

<本文作者:周維忠,現任資策會MIC主任,專業於資訊應用相關技術及基礎環境與市場趨勢研究,長期深度觀察資訊應用新興技術發展、創新服務模式與市場競爭態勢。資策會產業情報研究所(MIC)長期觀測紀錄高科技產業市場情報及發展趨勢,是臺灣資通訊產業最重要的軍師,也是政府倚重的專業智庫。更多資訊請參閱官網https://mic.iii.org.tw/>


 


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!