【台灣醒報記者簡嘉佑綜合報導】不肖份子正利用深偽技術製作青少年的裸照,還當作是開玩笑。對此,平台業者嘗試決對私訊裡的裸照採取模糊化處理,專家則呼籲,教育者應加強對學生的教育,讓學生知道深偽是會傷害到他人的工具。
深偽色情照片頻傳
《CNN》投書指出,去年就有媒體接連報導,高中生使用人工智慧的深偽技術,移花接木的製作女性朋友的色情影片或圖片,有些受害者的年紀甚至僅12、13歲。
目前使用人工智慧製作影像的狀況愈來愈頻繁,但《華盛頓郵報》報導指出,絕大多數人工智慧創作的圖像都是色情圖片,因此深偽技術產生的爭議事件,恐怕會愈來愈常見。
《CNN》報導,社群平台近期出現詐騙集團向青少年發送他們的裸照,並威脅他們如果他們不支付金錢,就會將這些照片公布在各大網站上或者傳送給親友。
裸照直接模糊化
對此,Instagram表示,將開始測試私訊裸照保護功能,將任何出現裸體的圖像都會被模糊化。平台也會嘗試阻止罪犯接觸年輕人,一旦帳號出現「疑似性勒索」的行為,就會遭到封鎖,無法與其他青少年帳號取得聯繫。
費爾利.狄金森大學傳播學副教授阿萊莫也指出,立法者須要制定法律起訴製作深偽影片的不肖份子,以發揮威嚇的作用。但更重要的是,人工智慧生成的內容需要加上浮水印,讓社會更加認真人工智慧對婦女與女孩的傷害。
教育工作者與家長也需要從教學開始,讓學生理解深偽技術是會傷害到他人的
暴力形式,如圖書館與社區也應舉辦成人教育課程,讓民眾意識到深偽技術不僅僅只是嘗試與享樂的工具。