《STEAM》AI系統徵才的公平性

張瑞雄 2021/02/16 14:41 點閱 4188 次

如果您到麥當勞、微軟或福特汽車等大公司求職,一開始可能會被要求上網玩一些旨在衡量某些特徵(包括慷慨、公平和專注)的遊戲。如果你的性格特徵反映出成功擔任此職位的人最需要的,那麼你才可以進入下一個招聘階段。

用AI過濾應徵者

越來越多的公司正在使用這種基於AI的招聘工具,來管理所收到的大量應徵函件,尤其是現在,新冠肺炎導致失業人數大增。但是與其他AI的應用一樣,這種AI的招聘工具會產生有偏見的結果,例如無意中偏愛具有特定社會經濟背景的應徵者。

另外如人臉辨識,近幾年被用於手機解鎖,很多執法單位、機場及銀行等機構也都加以利用。但美國國家標準技術研究所(NIST)針對數十種臉部辨識演算法的研究報告顯示,在「一對一」辨識技術中,非裔及亞裔的臉孔被誤判的機率,是白種人的10至100倍。

亞、非裔被誤判

另一項針對「一對多」辨識技術的測試結果則顯示,非裔女性較容易遭誤判。所以許多人主張提高AI的透明度和加強AI應用的監管,稱為AI審計(Auditing)。

儘管AI審計已經引起了人們的廣泛關注,但有時它們仍無法證明其能夠實際發現AI的偏見問題,其困難在於AI系統的不透明,如AI用甚麼演算法、其訓練的輸入資料是甚麼、而相對應的輸出又是甚麼等等。

AI模型傷及隱私

透明度對於增進人們對AI系統的理解至關重要,一般而言AI系統供應商並不特別注意如何讓其系統更透明,但為了制定有效的防止偏見政策並進行有意義的監督,必須增加AI系統的透明度。

困難的是不管出於實際或法律原因,某些AI訓練模型可能完全無法為公眾知曉,而且透過訓練AI模型的資料輸入或輸出來審核這些模型的嘗試,可能會使資料所屬的個人隱私受到威脅。

或許有人認為隨著科學家開發出更好的自動化工具來檢查和確保AI演算法的公平性,對透明度的呼籲可能顯得不必要甚至增加麻煩。但是要確保AI系統沒有歧視問題時,純技術策略不能保證AI的自動化決策結果不會有偏見,這種偏見可能不是因為AI程式的錯誤,而是由於社會集體的偏見所導致。

用審計糾正偏見

例如當給一個女性的頭像要AI產生完整的人像時,其結果往往是穿著清涼的女性,如果給男性則結果是穿西裝打領帶的男士,這不是AI程式有問題,而是因為利用網路蒐集的圖像來訓練AI的緣故。

因此光檢查AI程式是不夠的,審計仍然是檢測偏見並促使重新修訂AI演算法以減少歧視的重要策略。幸運的是,透過審計來糾正偏見已經慢慢地獲得大眾的認識和認可,也是未來利用AI的重要策略之一。