歧視貼文刪不完 臉書面臨挑戰

陳睿仁 2017/08/02 17:36 點閱 21525 次
臉書目標今年底將臉書管理員擴編到7千5百人,然面對20億用戶這數字仍略嫌不足。(photo credit by pxhere.com)
臉書目標今年底將臉書管理員擴編到7千5百人,然面對20億用戶這數字仍略嫌不足。(photo credit by pxhere.com)

【台灣醒報實習記者陳睿仁綜合報導】臉書刪文標準不一?面對氾濫的仇恨性言論,臉書原先想透過刪除相關言論保護弱勢族群,如今卻遭相同團體指控臉書的「保護」其實是「傷害」,因為臉書主要刪除的是弱勢團體貼文。

根據《華盛頓郵報》報導,美國許多弱勢團體認為臉書審查言論程序不夠公開透明,且管控標準不一。媒體正義中心常務董事西里爾就表示,臉書刪文有雙重標準,和白人優越主義相關的貼文相比,黑人和穆斯林群體相關的貼文較常遭毒手,不過沒有數據能證實此說法。

臉書日前在臉書部落格表示,臉書經常誤刪貼文或留言,特別是有受害人描述自己遭遇歧視的文章。臉書也表示他們知道少數族群認為自己被不平等對待,也常常與社區相關人士討論,但因為臉書沒有對遭移除的仇恨性言論進行分類統計,因此無法確切得知被刪除的言論的種類。

今年年初超過70個公民團體集體向臉書寫信,要求臉書導正目前「種族偏頗」的內文管理系統。信中要求臉書解釋刪文原因,統計刪除文章種類及允許遭刪文的用戶有機會申訴,但目前為止臉書尚未完成這些要求。

問題難解

面對仇恨性言論,臉書仍沒有妥善的解決之道。根據美國《Popular Science》雜誌分析,受到語言和文字過度複雜的限制,目前臉書還無法透過電腦審查使用者,只能仰賴人為管理。臉書發言人先前表示,已經努力提升審查言論的工具和規範,並計畫年底前額外招募3000名臉書管理員和更新用來檢舉仇恨性言論的軟體,希望藉此改善問題。

根據英國《衛報》報導,做為臉書管理員並非一件容易的事。一名管理員表示,每天上工就是看到恐怖份子斬首影片,許多同事因此失眠或做惡夢。心理學家表示,管理員每天都要移除大量使用者或電腦檢舉的圖片、貼文或影片,暴露在激進的暴力或色情內容,對身心造成負面影響。

身為一個社群媒體公司,臉書一開始並不願意為平台內言論把關。祖克柏去年就曾表示,臉書是科技公司而不是媒體公司,科技公司在法律上不像媒體公司需要為網路平台內容負責。不過祖克柏今年改變態度,並在2月表示臉書有義務「減少平台中的壞效應」,將努力打造一個給所有人的安全空間。