%e5%9c%96%e8%aa%aa%ef%bc%9a%e9%9b%bb%e8%85%a6%e6%bc%94%e7%ae%97%e6%b3%95%e9%80%a0%e6%88%90%e6%80%a7%e5%88%a5%e6%88%96%e7%a8%ae%e6%97%8f%e6%ad%a7%e8%a6%96%ef%bc%8c%e8%8b%b1%e5%9c%8b%e6%9c%80%e9%ab%98%e6%b3%95%e9%99%a2%e6%b3%95%e5%ae%98%e8%ad%a6%e5%91%8a%ef%bc%8c%e8%8b%a5%e4%b8%8d%e5%88%b6%e8%a8%82%e5%b0%8d%e6%bc%94%e7%ae%97%e6%b3%95%e7%9a%84%e8%a6%8f%e7%af%84%ef%bc%8c%e4%ba%ba%e6%ac%8a%e6%81%90%e8%a2%ab%e4%be%b5%e8%9d%95%e3%80%82

演算法歧視嚴重 法官籲立法規範

林祐任 2019/11/19 19:01 點閱 4026 次
電腦演算法造成性別或種族歧視,英國最高法院法官警告,若不制訂對演算法的規範,人權恐被侵蝕。(Photo by Pixabay)
電腦演算法造成性別或種族歧視,英國最高法院法官警告,若不制訂對演算法的規範,人權恐被侵蝕。(Photo by Pixabay)

【台灣醒報記者林祐任綜合報導】電腦演算法造成性別或種族歧視的事件層出不窮,譬如蘋果共同創辦人沃茲尼克日前指出,他和老婆共用銀行帳戶和資產,但是蘋果信用卡的刷卡額度卻相差10倍!學者指出,演算法威力之強大,可透過其他資料推論出其他消費者未提供的資訊,英國最高法院法官則警告,若不制訂對演算法的規範,人權恐被侵蝕。

演算法造成歧視

英國廣播公司》指出,電腦的演算法在生活中無所不在,影響遍及交通、購物到運動等各層面。最直接的影響莫過於金融業,例如保險業透過暱稱「郵政彩票」的演算法,即郵遞區號所代表區域的犯罪率,以此決定不同的地區的保費,犯罪率愈高保費也愈高。透過各種演算法得出的個人信用等級,更會影響申請手機門號乃至租房子的順利與否。

演算法會造成性別或種族歧視嗎?負責蘋果信用卡營運的高盛銀行澄清,沒有要求申請者提供性別、種族、年齡等資訊。舊金山大學應用資料倫理中心的主任湯瑪絲表示,不應忽視潛在變項的存在,例如演算法可以從教師這個職業推論出申請者很有可能是女性,或是從警察的犯罪檔案中推測申請者為黑人。

解決之道在規範

針對演算法造成的歧視,《英國廣播公司》提出3個解決之道:第一,將演算法完全公開以接受大眾檢驗,但企業極有可能拒絕公開作為商業機密的演算法;第二,僅告訴消費者哪些個資是演算法中的重要參數,然而哪些個資目前仍欠缺共識。

或許最折衷的方法是演算法納入不明確的個資。以保險業為例,根據業者索塔的建議,保險公司可針對企業全體員工的健康狀況投保,而不是針對個別員工,缺點是無法差異化行銷,不過索塔認為,投保人有權利知道他們的個資如何被利用。

泰晤士報》指出,英國最高法院法官塞勒斯罕見的警告,這些演算法替我們決定生活中許多大小事,將會一點一滴侵蝕到人權和人性尊嚴,他呼籲盡速制定對演算法的規範。



可用鍵盤操作