人工智慧熱潮 隱藏的人權風險應更注意

隨著數位科技發展,生成式人工智慧(Generative AI)等演算法應用快速融入商業、社會與私人生活提升生產力與創新的同時,亦引起人工智慧系統是否侵害自由與隱私、加深不平等與歧視的疑慮。財團法人資訊工業策進會科技法律研究所(資策會科法所)長年密切關注數位科技發展與人權議題,觀察到國際社會對於數位人權的回應與最新法制動向。

2021年7月13日聯合國人權理事會(U.N. Human Rights Council)決議申明人們在線下擁有的權利,在線上同樣必須受保護;並體認到當前數位科技的快速變革,對人權已形成潛在的影響與挑戰。

美國於2022年10月4日提出的《人工智慧權利法案藍圖(Blueprint for an AI Bill of Rights)》則指出,人工智慧自動化系統對於個人權利與隱私、公平機會以及獲得資源與服務的能力造成影響,繼而提出五項設計與使用的指導原則,包括自動化系統應保障資訊安全與隱私、確保其所使用的演算法不構成歧視、個人對於自動化系統有受告知與說明的權利,並得選擇退出自動化系統及受侵害時可獲得即時救濟的權利。

此外,歐洲議會甫於2023年6月14日通過《歐盟人工智慧法(EU Artificial Intelligence Act)》草案,旨在促進以人為本、值得信賴的人工智慧應用,保障個人基本權利與民主不受負面影響。該草案將人工智慧系統以風險與危害程度分類,對人權具潛在影響的高風險人工智慧應用,除要求應進行註冊並持續接受追蹤外,並進一步禁止人工智慧系統侵害個人自由與權利或對弱勢造成歧視,例如即時生物特徵監控、對特定弱勢族群如孩童、身心障礙者等進行生物特徵分類,以及預測性警察活動(predictive policing)。

台灣於2020年《國家人權行動計畫》已將數位人權列為重要項目,並於2023年1月增訂刑法「妨害性隱私及不實性影像罪」,正式將「深度偽造(deepfake)」在內的數位性暴力行為入罪,以保障個人隱私與尊嚴。資策會科法所副法律研究員吳允中認為,隨著人工智慧應用深入日常生活,人們將期待未來的數位科技發展策略與監管框架能以人為本,確保公眾的自由與權利並避免歧視,在數位轉型與人權保障尋找適當平衡,以緩和人工智慧時代對人權的衝擊;因此國際間如何透過相關法制與政策,避免人權受到人工智慧應用的不當侵害,未來會是值得持續關注的重點。【記者  鄭昱庭整理報導】