AI也有種族歧視? IBM取消人臉辨識

呂翔禾 2020/06/10 16:38 點閱 15609 次
IBM近日宣布將停止提供美國警方人臉辨識的服務。(Photo on Wikimedia Commons)
IBM近日宣布將停止提供美國警方人臉辨識的服務。(Photo on Wikimedia Commons)

【台灣醒報記者呂翔禾綜合報導】人臉辨識系統在辨認非裔時容易發生誤測問題,讓IBM取消美國警方應用的系統,改以提供隨身攝影機、犯罪預測分析等較中性的科技。近年來許多研究顯示,AI在辨識膚色較深的族群時準確度時會下降,專家憂心,隨著近來種族議題延燒,日後相關科技若無適當修正,恐無形間會加劇種族衝突。

AI系統有偏差

根據《英國廣播公司》報導,IBM執行長克里希納近日向美國國會寫信表示,由於他們提供美國警察執法的AI系統會有偏差,在辨認膚色較深或是非裔美國人時,容易有認錯的情況,可能造成許多誤會,因此他們日後將停止提供美國官方相關的服務,改成提供隨身攝影機、資料分析的服務。

不過科技界對這件事的看法不一,NGO隱私國際的布隆─杜蒙特表示,IBM過去在全世界推動這麼多CCTV監視系統的服務,現在卻說要取消監視系統有關的人臉辨識,其實蠻詭異的。因此她認為,IBM的聲明模糊,只說要取消「一般用途」,並沒有明確告訴外界實質的計畫,「IBM可能只是把系統再微調、客製化一點而已。」

白人以外難辨識

美國公廣》提到,美國公民自由聯盟的律師韋斯勒則認為IBM的舉動很好,但光是1家公司還不夠,亞馬遜、微軟也有相關的業務仍持續進行,他們也應該停止提供有偏差的人臉辨識系統。奧勒岡州與佛羅里達州的警方現在仍再採用亞馬遜的「Rekognition」人臉辨識系統。

MIT於2019年的研究顯示,微軟、亞馬遜、IBM的人臉系統只要在辨識膚色較深的人時,就無法100%完全正確。美國國家科技標準局的研究也顯示,比起高加索人(多數歐美白人),非裔與亞裔臉孔的辨識成功率比較低。AI專家阿克森特表示,如果不改善相關情況,恐會加劇種族衝突與歧視的狀況。