人工智慧 AI Chat GPT 資料隱私

ChatGPT再掀人工智慧熱潮 數位科技挑戰倫理法律極限

造福人類亦可能成雙面刃 AI運用有待規範制定

2023-02-09
為使人工智慧技術能對人類產生助益,且避免相關技術過度發展可能對個人和社會造成嚴重傷害,目前已有60多個國家/地區制定國家人工智慧戰略,歐盟及美日等國也紛紛制定人工智慧法律或政策,允許負責任地使用可以帶來巨大利益的人工智慧技術。

去年(2022)12月,Open AI在發表聊天機器人模型ChatGPT後,旋即引發風潮,各種測試結果與討論文章不斷出現,ChatGPT不論是在回答問題或是在撰寫文章、程式碼方面的表現,皆超乎我們的想像,但人工智慧迅速的發展與不斷的突破,也引發不少人的擔憂。

人工智慧發展之倫理問題

事實上,隨著人工智慧技術的快速發展,相關的問題亦不斷發生,例如亞馬遜公司為節省人力資源部門審閱履歷之時間,改以人工智慧招聘工具進行履歷篩選後,卻發現該工具有「 重男輕女」的歧視問題;網紅小玉(朱玉宸)利用深偽(Deep Fake)的人工智慧技術,合成119位知名女性民代、網紅與直播主的臉部圖,偽造名人性愛影片,並在網路上散播;葉門反政府組織胡希於2022年1月,以無人機對阿拉伯聯合大公國的油罐車發動襲擊,造成3人死亡、6人受傷的事故。因此人工智慧對人類生存的威脅,也已在現實生活中發生。

關於人工智慧對人類的影響,全球著名的人工智慧專家托比.沃爾許教授在《2062人工智慧創造的世界》一書即表示,人工智慧進步的速度超出想像,但利用人工智慧所產生的假新聞影響政治、政府對人民不當監控、自主武器造成殺戮、演算法歧視等問題,都是我們必須去面對的課題。

英國著名物理學家霍金博士於2016年出席「未來智能中心」(Centre for the Future of Intelligence)開幕儀式時亦表示,人工智慧的發展可能幫助人類消除疾病及貧窮、阻止氣候變化,但也可能產生人們不願意看到的種種後果,例如產生自主武器、造成經濟災難、發展出擁有自己意願的機器等,因此強大的人工智慧究竟是人類遇到最好的事還是最壞的事,目前尚不得而知。

人工智慧之相關規範

為使人工智慧技術能對人類產生助益,且避免相關技術過度發展可能對個人和社會造成嚴重傷害,目前已有60多個國家∕地區制定國家人工智慧戰略,歐盟及美日等國也紛紛制定人工智慧法律或政策,允許負責任地使用可以帶來巨大利益的人工智慧技術。

歐盟議會於2019年4月發布《可信賴之人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)》,提出尊重人類自主權、避免傷害、公平性與可解釋性等四個倫理原則,以及人類自主性和監控、技術穩健性和安全性、隱私和資料治理、透明度、保持多樣性且不歧視和公平、社會和環境福祉以及問責性等七個遵守面向後,歐盟執委會並於2021年4月提出《人工智慧法(Artificial Intelligence Act)》草案,將人工智慧技術可能導致的風險區分成不可接受之風險、高風險、有限風險,以及低風險和極小風險等四個層級。第一級為不可接受風險之應用程式或系統,包含利用人類潛意識操控人類行為,或利用特定人群的弱點(例如年齡、身心障礙),從而對人類身心造成傷害者、公務機關用於進行社會評分者,或執法當局在公共場所執行即時遠程生物特徵辨識者(特定例外情形下有使用必要者除外),這些人工智慧應用程式和系統,應明文禁止;第二級為高風險應用程式,例如對求職者進行排名的簡歷掃描工具、對自然人之生物特徵進行識別與歸類、對於關鍵基礎設施之管理與運作等,則須遵守特定的法律要求,第三級為有限風險之應用程式,則須負透明化義務,例如與自然人互動之人工智慧系統須讓使用者知悉其正與人工智慧系統互動,第四級為低風險和極小風險,此類人工智慧系統之提供者訂定自律性行為守則即可。

此外,日本內閣亦於2019年3月制定《以人為中心的人工智慧社會原則(Social Principles of Human-centric AI)》,提出人工智慧應該遵守的7項社會原則,包含以人為中心原則(Human-centric)、教育原則(Education)、隱私原則(Privacy)、安全原則(Security)、公平競爭原則(Fair Competition)、公平、問責及透明原則(Fairness, Accountability, and Transparency),以及創新原則(Innovation)。

至於人工智慧研發大國美國,也由白宮科技政策辦公室在2022年10月提出《人工智慧權利法案藍圖(Blueprint for an AI Bill of Rights)》,以指導人工智慧系統的設計、使用及部署,進而保護美國公眾。該藍圖係包含五項原則,首先納入安全且有效系統(Safe and Effective System)原則,以避免受到不安全或無效系統的影響,其次包含演算法歧視保護(Algorithmic Discrimination Protections)原則,呼籲以公平的方式使用和設計系統,同時亦納入資料隱私(Data Privacy),透過內建的保護措施以免遭受資料濫用行為之影響,此外也包含通知及解釋(Notice and Explanation)原則,以確保個人在與人工智慧系統進行互動時,可知悉正在使用該系統,並知悉該系統如何產生影響個人之結果,最後包含人類選擇、考慮和應變(Human Alternatives, Consideration, and Fallback)原則,讓參與者能在適當的情況下選擇退出,並聯繫到能解決問題之人。此外,每項原則並包含一個技術指南,提供許多美國白宮科技政策辦公室認為有問題的人工智慧使用例示,以及人工智慧在貸款、人力資源、監控和其他領域的使用例示。

結語

近年來人工智慧在圖像及自然語言等方面都有顯著的突破與發展,然而相關發展所衍生的倫理及法律問題,卻也不斷挑戰人類社會,因此制定人工智慧倫理準則及法律規範,已成為國際的趨勢,台灣雖公布施行《無人載具科技創新實驗條例》,科技部也於2019年提出《人工智慧科研發展指引》,但仍缺乏全面性的人工智慧法規,故應可參考歐美各國所制定之人工智慧倫理準則及法規,訂定台灣人工智慧發展基本法,使台灣人工智慧的研究發展能有所依循。

<本文作者:黃于珊,目前為執業律師。輔仁大學圖書資訊與資訊管理雙學士,交通大學科技法律研究所碩士,美國華盛頓大學智慧財產權法碩士,曾擔任系統工程師、專利工程師。專攻領域為智慧財產權法、個人資料保護法、高科技產業議題及資訊通訊法等。>


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!