![研究報告指出,人工智慧系統時常存在著性別偏見,如助理工作適合使用女聲。(Photo by Stock Catalog on Flickr under C.C. License)](/system/assets/images/000/077/041/big/%E5%9C%96%E8%AA%AA%EF%BC%9A%E7%A0%94%E7%A9%B6%E5%A0%B1%E5%91%8A%E6%8C%87%E5%87%BA%EF%BC%8C%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7%E7%B3%BB%E7%B5%B1%E6%99%82%E5%B8%B8%E5%AD%98%E5%9C%A8%E8%91%97%E6%80%A7%E5%88%A5%E5%81%8F%E8%A6%8B%EF%BC%8C%E5%A6%82%E5%8A%A9%E7%90%86%E5%B7%A5%E4%BD%9C%E9%81%A9%E5%90%88%E4%BD%BF%E7%94%A8%E5%A5%B3%E8%81%B2%E3%80%82%EF%BC%88Photo_by_Stock_Catalog_on_Flickr_under_C.C._License%EF%BC%89.jpg?1686036928)
【台灣醒報記者簡嘉佑綜合報導】當Siri、Alexa的語音助理遭到言語性騷擾時,竟然回說「謝謝你的讚美」!研究報告指出,語音助理系統時常存在著性別偏見,如助理工作適合使用女聲、AI判斷稱讚或性騷擾時常有偏見,導致用戶無意間加深了刻版印象。目前科技公司透過開放多元的聲音選擇、使用合成音等方式,解決上述的狀況。
女聲較不受信賴?
《BBC》報導,如Siri、Alexa等語音助理愈來愈普及,包括居家、車輛或者手機上都可以搭載相關軟體,車輛的語音助理就能隨時提醒駕駛注意安全或繫好安全帶。
近期BMW車輛也都使用女性聲音的語音助理,來提醒駕駛注意安全。然而,結果顯示,男性駕駛往往不願意聽從「女人」的指示,更無視語音助理繫上安全帶的提醒,最終導致BMW召回汽車上的女聲助理系統。
AI加深性別偏見
聯合國早於2019年的報告就指出,性別偏見於人工智慧系統中相當常見。赫瑞瓦特大學里爾瑟表示,語音系統是性別化且擬人化的,且符合社會的性別角色,但這可能會有潛移默化的功能,增強民眾對性別的偏見。如向亞馬遜的Alexa表示「你很性感」時,語音助理竟回應「謝謝,你說的真好」。
目前大型科技公司在努力改變此狀況,提供多元化的聲音選擇,不再默認語音助理為「女性」。但研究人員指出,提供男性的聲音給民眾選擇,無助於調整語音助理的不當反應,且社會性別認同相當複雜且多元,需要更具建設性的解決方案。
《聯合國》指出,對此,就有專家呼,可以讓語音助理使用卡通化或者非人類的聲音,減少因為聲音造成的性別偏見。但諾森比亞大學學者薩頓表示,目前社會已經習慣擬人技術,卡通聲音恐需要經過社會接受度的考驗。