ChatGPT 生成式AI 人工智慧 LLM 大型語言模型

生成式AI顛覆過往發展框架 影響範圍之大遠遠超乎預期

AI爆紅仍須政策法規應對 各國管制重點一次看

2023-08-14
由於目前ChatGPT等生成式AI大大影響人們生活,除產業可能應用外,各國際組織或重要國家之政策或法規,更在意相關AI或LLM涉及之公平性、透明性及負責任,以避免偏見,且要求演算法應透明、可信,並規範問(當)責,促使廠商落實法令遵循等。

隨著2022年ChatGPT服務模式之問世被譽為是殺手級應用,人工智慧(AI)風潮已影響各行各業。然人工智慧科技發展甚早,以2023年美國史丹佛大學發布之AI相關報告為例,AI研究在2014年前係以學界為主,2014年後產業界陸續推出大型語言模型(LLM)或其他服務,迄至2022年底已逾30多個,較知名者如ChatGPT、LaMDA。

由於目前ChatGPT等生成式AI大大影響人們生活,除產業可能應用外,各國際組織或重要國家之政策或法規,更在意相關AI或LLM涉及之公平性、透明性及負責任,以避免偏見,且要求演算法應透明、可信,並規範問(當)責,促使廠商落實法令遵循等。

各國對AI管制重點說明

鑑於近年AI科技已由學界研究邁入產業應用,也面臨許多挑戰。以智慧財產權之應用為例,以往在著作權領域,重視內在想法之表達,一旦可以外顯,就有機會變成權利受到保護。但生成式AI問世後,若原先自然人的著作(A)變成AI的素材(B),其有可能被視為是隱性的(A成為B之內容,且呈現上無法區辨A),倘因此就不予保護、或忽視(原)權利人可運用之未來,適法性或如何評價等皆需要審慎考量。

為此,早於2019年經濟合作暨發展組織(OECD)已發布AI相關準則,當時重點在於AI之倫理與其監督,包含5項內容。主要於第3點要求透明度與負責任之揭露,第4點則要求應有風險評估。

又如歐盟於2021年4月提出AI法(2021/0106/COD)草案,今(2023)年6月業經歐洲議會通過,後續將先取得共識,再由歐盟理事會通過,以完成正式立法程序。該AI法草案特別重視可信度,希冀促使歐盟建立合法、安全,且可信任之AI市場環境。

因各界還關切AI之安全性,以該AI法草案涉及網路安全之要求為例,具體內容包含:如前言第43、49及51點提及,AI或相關模型蒐集資料時,除確保穩定性、準確性,及受監控外,網路安全或降低安全風險也是立法目的之一。或如第51點要求確保建立符合AI系統之風險管理,並採取適當措施。 此外,除於AI法草案第3條名詞定義內提及安全相關內容外,依第15條規定,要求設計AI系統時,除結合生命週期,更重視弱點管理,如安全漏洞之防護、緩解措施,以及事件應變。至於第42條要求AI系統(含功能)如屬ICT產品或服務,應符合2019年施行之網路安全法((EU) 2019/881),取得相關產品或服務之安全認證。

除OECD、歐盟外,美國NIST也於2023年1月發布AI風險管理架構(AI RMF 1.0)。該架構以風險管理為主,但也有特別針對網路安全之規範,如:第1.2.4點針對組織整合與風險管理、第3.6點強化隱私保護,或附件B,都是納入評估風險考量因素之一。

綜上觀之,整理其他國際組織或重要國家政策法規後可以發現,以美國NIST AI RMF 1.0為例,AI規範重點包含但不限於:效度與信度、公平與偏見之管理、確保安全與韌性、透明度與可問(當)責、可解釋,及強化隱私保護,值得IT產業從業人員特別注意。

臺灣現行AI政策或法規重點

除歐美等國外,我國在106(2017)年宣示為臺灣AI元年後,續於同年8月推出「AI科研戰略」,並自2018年推動臺灣AI行動計畫(107至110年),該計畫共有5項重點,包含:1.AI人才衝刺、2.AI領航推動、3.建構國際AI創新樞紐、4.場域與法規開放,以及5.產業AI化。

以落實AI之法規與場域開放為例,政府除在臺南沙崙建置第一座封閉式自駕車測試場域「臺灣智駕測試實驗室」並開始營運,並於107(2018)年12月19日公布全球第一套涵蓋陸、海、空交通工具之《無人載具科技創新實驗條例》。

該條例之重點為鼓勵國內產業投入無人載具創新應用,並建構友善、安全及創新發展之法規環境。如依第15條規定,發生安全事故時,申請人應暫停實驗並主動即時通報主管機關事故發生原因及後續處理方式。

除前述針對人工智慧結合移動載具之規範,國科會也於2023年4月宣布,《人工智慧基本法》正在研擬中,預計9月初會提出初步草案。另立法院曾於同年3月委請NGO辦理發表說明會,提出其他版本之草案。

目前NGO研擬之非官方版本草案之重點說明包含:第1條之規定說明立法目的:「為建設智慧國家,促進人工智慧產業發展,建構人工智慧安全環境,保障人民基本權利,促進社會福祉,提升國際影響力。」

而第2條說明中央主管機關為數位發展部,地方主管機關為直轄市、縣(市)政府,如提供輔導機制、財稅或金融優惠;惟涉及各目的事業主管機關職掌者,由各該目的事業主管機關辦理。

至於涉及安全性或風險管理之要求,如非官方草案第9條規定:「人工智慧資料之蒐集、處理及利用,應審酌人民隱私、資訊自主及產業發展之均衡維護,建立必要之保護及監督機制。」及第15條要求就人工智慧風險訂定分級及判定原則,並建立風險評估及監管機制,進行適當管制。

小結

綜合歐盟、美國或臺灣之政策發展或法規管制重點觀之,因AI科技尚在發展中,現行各國規範仍為草案(如歐盟AI法)或架構(如美國NIST AI RMF)之建議。不過,目前多以歐盟於2021年之AI法草案為主要參考對象,如於法規內訂定安全、可信度或責任歸屬相關規定為立法重點。

此外,各國政策或法規也考量對新興技術(如生成式AI)如何進行監管,方能達到實質有效之管理,如美國NIST AI RMF 1.0第1.2.4點、第3.6點,或附件B之規範,以落實風險評估並搭配必要措施;但同時希望不會對新技術之發展,施加過多不必要之門檻或限制,後續發展實值持續關切。

<本文作者:陳宏志近年來專注在資料治理議題,如資安、個資政策或法令及管理實務,並協助零售、物流、智慧財產權領域,規劃區塊鏈或相關應用。>


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!