AI染上性別歧視 語音助理火上澆油

簡嘉佑 2023/06/06 18:47 點閱 3621 次
研究報告指出,人工智慧系統時常存在著性別偏見,如助理工作適合使用女聲。(Photo by Stock Catalog on Flickr under C.C. License)
研究報告指出,人工智慧系統時常存在著性別偏見,如助理工作適合使用女聲。(Photo by Stock Catalog on Flickr under C.C. License)

【台灣醒報記者簡嘉佑綜合報導】當Siri、Alexa的語音助理遭到言語性騷擾時,竟然回說「謝謝你的讚美」!研究報告指出,語音助理系統時常存在著性別偏見,如助理工作適合使用女聲、AI判斷稱讚或性騷擾時常有偏見,導致用戶無意間加深了刻版印象。目前科技公司透過開放多元的聲音選擇、使用合成音等方式,解決上述的狀況。

女聲較不受信賴?

BBC》報導,如Siri、Alexa等語音助理愈來愈普及,包括居家、車輛或者手機上都可以搭載相關軟體,車輛的語音助理就能隨時提醒駕駛注意安全或繫好安全帶。

近期BMW車輛也都使用女性聲音的語音助理,來提醒駕駛注意安全。然而,結果顯示,男性駕駛往往不願意聽從「女人」的指示,更無視語音助理繫上安全帶的提醒,最終導致BMW召回汽車上的女聲助理系統。

AI加深性別偏見

聯合國早於2019年的報告就指出,性別偏見於人工智慧系統中相當常見。赫瑞瓦特大學里爾瑟表示,語音系統是性別化且擬人化的,且符合社會的性別角色,但這可能會有潛移默化的功能,增強民眾對性別的偏見。如向亞馬遜的Alexa表示「你很性感」時,語音助理竟回應「謝謝,你說的真好」。

目前大型科技公司在努力改變此狀況,提供多元化的聲音選擇,不再默認語音助理為「女性」。但研究人員指出,提供男性的聲音給民眾選擇,無助於調整語音助理的不當反應,且社會性別認同相當複雜且多元,需要更具建設性的解決方案。

聯合國》指出,對此,就有專家呼,可以讓語音助理使用卡通化或者非人類的聲音,減少因為聲音造成的性別偏見。但諾森比亞大學學者薩頓表示,目前社會已經習慣擬人技術,卡通聲音恐需要經過社會接受度的考驗。