【台灣醒報記者林祐任綜合報導】電腦演算法造成性別或種族歧視的事件層出不窮,譬如蘋果共同創辦人沃茲尼克日前指出,他和老婆共用銀行帳戶和資產,但是蘋果信用卡的刷卡額度卻相差10倍!學者指出,演算法威力之強大,可透過其他資料推論出其他消費者未提供的資訊,英國最高法院法官則警告,若不制訂對演算法的規範,人權恐被侵蝕。
演算法造成歧視
《英國廣播公司》指出,電腦的演算法在生活中無所不在,影響遍及交通、購物到運動等各層面。最直接的影響莫過於金融業,例如保險業透過暱稱「郵政彩票」的演算法,即郵遞區號所代表區域的犯罪率,以此決定不同的地區的保費,犯罪率愈高保費也愈高。透過各種演算法得出的個人信用等級,更會影響申請手機門號乃至租房子的順利與否。
演算法會造成性別或種族歧視嗎?負責蘋果信用卡營運的高盛銀行澄清,沒有要求申請者提供性別、種族、年齡等資訊。舊金山大學應用資料倫理中心的主任湯瑪絲表示,不應忽視潛在變項的存在,例如演算法可以從教師這個職業推論出申請者很有可能是女性,或是從警察的犯罪檔案中推測申請者為黑人。
解決之道在規範
針對演算法造成的歧視,《英國廣播公司》提出3個解決之道:第一,將演算法完全公開以接受大眾檢驗,但企業極有可能拒絕公開作為商業機密的演算法;第二,僅告訴消費者哪些個資是演算法中的重要參數,然而哪些個資目前仍欠缺共識。
或許最折衷的方法是演算法納入不明確的個資。以保險業為例,根據業者索塔的建議,保險公司可針對企業全體員工的健康狀況投保,而不是針對個別員工,缺點是無法差異化行銷,不過索塔認為,投保人有權利知道他們的個資如何被利用。
《泰晤士報》指出,英國最高法院法官塞勒斯罕見的警告,這些演算法替我們決定生活中許多大小事,將會一點一滴侵蝕到人權和人性尊嚴,他呼籲盡速制定對演算法的規範。