AI出現性別種族歧視 是人訓練的

祝潤霖 2019/12/26 17:33 點閱 21367 次
AI法律國際研究基金會執行長張麗卿(右)表示,AI倫理就是AI的道德標準,離不開以人為本的價值觀。(photo by 祝潤霖/台灣醒報)
AI法律國際研究基金會執行長張麗卿(右)表示,AI倫理就是AI的道德標準,離不開以人為本的價值觀。(photo by 祝潤霖/台灣醒報)

【台灣醒報記者祝潤霖台北報導】「要避免AI造成人類的悲劇,離不開以人為本的價值觀。」AI與法律國際學術研討會26日探討「AI倫理規範的國際趨勢」,AI法律國際研究基金會執行長張麗卿教授舉例,亞馬遜用AI篩選履歷,卻發現有重男輕女的現象,是因為人用帶有偏見的資料來訓練AI。

AI的倫理議題

「要屏除AI偏見並具有可解釋性,在歐盟《一般資料保護規》(GDPR)被熱烈討論。」張麗卿說,假如資料是新石油,則機器學習就是大數據的煉油廠,而且可以無限次重複提煉。偵查分析系統把所有民眾當成母數,無異於把民眾當成犯罪嫌疑人,是否有可能侵犯資訊自決權?AI事故的法律責任,要避免演算法中存有黑箱。

「AI是否有人格問題?是否要追究它的法律責任?法律體系是否應該承認AI的法律權利,例如公然猥褻或公然侮辱罪能否成立?」張麗卿說,AI系統設計應採用「最小傷害原則」,用刑法的「緊急避難」去解釋,還要有多領域專家參與的必要性。《無人載具創新實驗條》及《AI發展基本法草案》都是為避免AI發展對人造成傷害。

AI開發避免歧視

「我是台灣女婿,打個廣告,AI這個領域需要很多女生!」恆安法律事務所律師施明遠表示,使用Word2vec演算法,相似的詞彙會產生類似的向量。輸入男人會顯示為電腦工程師,那女性呢?竟是家庭主婦。

「全球78%的AI專業人員是男性,女性則佔22%。」施明遠報告說,在刑事司法系統中使用的演算法,要填寫130多個問題,檢察官要跟法官提報再犯的等級,提供法官量刑的依據,白人的數據比黑人低,這裡面明顯避免不了偏見。

施明遠也強調,性別偏見會讓人工智慧發展欠缺多樣化人才,AI系統應該用透明的系統開發,不得有歧視偏見。從事AI的開發人員、研究人員和科學家之間需要更豐富的多樣性,要選擇與熟悉不平等、以及關注文化和社會領域的工程師或專家合作,這是聯合國國際政策的倡議。
cari
台灣女婿施明遠教授(右)表示,AI系統應該用透明的系統開發,不得有性別種族等歧視偏見。(photo by 祝潤霖/台灣醒報)