【台灣醒報記者祝潤霖台北報導】「AI時代的趨勢是收集大數據,個資及資安保護要有新的思維模式。」立委高虹安9日召開公聽會探討「數位浪潮下的法制工程」指出,個資保護要有專責機關,經過去識別化才能提供分析使用;此外,AI的建模標記也要符合人權倫理,參考國外GDPR及DPIA來建立台灣法制。
重視選擇退出權
「過去蒐集個資必須告知使用目的,且不可以做該目的外的使用,還有『opt-out』選擇退出權等機制。」數位治理協會理事李崇僖指出,但現在各國都在研究怎麼修訂個資法,來兼顧社會發展跟個人隱私。AI機器學習已超越法律所能規範的範疇,政府將從規則的設計者變為促進者,企業則從規則的遵守者變為設計者。
資策會科技法律研究所商務經理李沛辰說,儘管歐盟GDPR實施後,各國也修訂各自的個資法,但個人資安真的有受到保護嗎?按下「我同意」的背後,有誰知道到底代表授權了什麼?可以研究「資料保護沙盒」立法的可能,加入DPIA資料保護影響評估的概念,個資外洩不能只事後補救,要納入技術從源頭保護。
避免AI歧視特定族群
「AI是產生自動化決策的演算法,也可能產生對特定族群的歧視。」台灣人權促進會專員周冠汝指出,包括自動篩選履歷或再犯風險評估等,政府應做人權衝擊影響評估,除直接傷害外也要評估間接傷害,還有對環境、社會的影響,納入意見並討論替代方案的效果,「避免辛苦開發出來的AI成為另一個黑箱。」
「個資法一開始是舶來品,現在要慢慢內化成國民的生活經驗跟情感。」國發會法制協調中心參事李世德強調,尤其第1條避免人格權受侵害及促進合理利用,兩者不能偏廢。此外,像app定位或心跳、血壓、呼吸等,算是間接可識別個人的資訊,可以從其他資料參照而得知個資,這個部分也適用個資法的保護。
行政院資安處長簡宏偉說,資安法納管對象有7,716個,政府A級機關至少要有4個資安人員,各機關也必須設立資安長,每年訓練部會人員成為稽核員及觀察員。金管會創新中心執行秘書林志憲則提醒,金融監理及無人載具沙盒可豁免包含銀行法等9項法律罰則,「但是個資法沒有豁免喔,一定要符合個資法規定。」
資策會科技法律研究所商務經理李沛辰強調,個資外洩不能只事後補救,要納入技術從源頭保護。(photo by 祝潤霖/台灣醒報)