%e6%9b%b8%e5%b0%81

《深度造假:比真實還真的AI合成技術》

醒報編輯部 2020/12/10 08:58 點閱 6500 次

層層解開AI造假、資訊亂象和民主危機的關係,最重要的是──苦了誰?犧牲了誰?圖利了誰?現在,只要有心和一台可上網的電腦,隨時隨地都能「弄假成真」:把甲的臉接上乙的身體,再搭配丙的嘴型和動作,自然說出甲乙丙都沒說過的話!

深度造假不只能換掉人的外表,更在無形中改造你的大腦!人人都可能成為詐騙、抹黑、攻擊的受害者,加害者還能將罪行統統推給AI……然而,深度造假並不恐怖,恐怖的是我們毫無準備!
  
「我們的資訊生態系統已變得如此危險且不可信,其傷害遠遠超乎政治──甚至入侵了我們的私人生活。」有此認知可以協助我們團結一致、加強防備,並開始反擊。為了更有效地對抗資訊末日,了解現況就是第一步。

深度造假是一種「合成媒體」(synthetic media,,又譯「合成內容」),代表媒體內容(包括圖片、影像和聲音)受到操控,或完全由人工智慧創造。AI技術讓媒體控制變得更輕鬆,也更容易了(例如Photoshop或Instagram的濾鏡功能)。然而,AI近年來的發展已讓機器具備製造完全合成媒體的能力,媒體控制的層次也隨之提高。

何謂深度造假?

雖然這種技術帶來許多正面發展(例如電影和電腦遊戲變得更有看頭),但也能變成一種攻擊武器。當合成媒體被人惡意使用,企圖提供不實或錯誤資訊時,就是所謂的「深度造假」。這是我個人對於「深度造假」的定義。這個領域才剛興起,因此在分類上依然莫衷一是。然而,由於合成媒體的使用案例好壞皆有,而我為「深度造假」下的定義是:專指任何意圖提供錯誤和不實資訊的合成媒體。

資訊末日的開端

不幸的是,我們已經身處「混亂反烏托邦」之中了。在資訊時代,我們的資訊生態系統早已遭到污染,而且非常危險。我們正面臨空前巨大的「錯誤和不實資訊」危機。為了分析和討論此問題,我需要找到一個適合的詞彙來描述當今全體人類所處的「混亂」資訊環境。

而我決定使用「資訊末日」(infocalypse)一詞。為了符合本書題旨,我將資訊末日定義為:目前絕大多數人所生活的資訊生態系統,危險程度日漸增加,可信度卻愈來愈低。

我們難以指出資訊末日形成的開端,或實質的影響程度。不過,資訊末日確實與本世紀初科技發展呈指數成長有關。在邁入千禧年之前,資訊環境進步的速度較為緩慢,我們的社會有更多時間適應科技發展。從印刷術誕生到攝影術問世,足足間隔了四百年之久。

錯誤資訊擴散

演變之快,導致資訊生態系統很容易遭人利用。惡意的行動者(bad actor)──大至民族國家,小至個人行動的「意見領袖」──也逐漸利用新環境的形勢來散播「錯誤資訊」(亦即刻意誤導大眾的資訊),圖謀不軌。快速變動的資訊環境還有一種副作用,正是「錯誤資訊」的擴散。錯誤資訊和不實資訊不同。不實資訊的目的是欺騙,而錯誤資訊僅是不可靠的消息,背後沒有惡意。

雖然錯誤或不實資訊都不是新觀念,但規模今非昔比,且影響力益發強大;某部分而言,這是去脈絡化以及(或者)經過編輯的影像與圖片所致,也就是我們熟知的「粗劣造假影片」(cheapfake)。由於我們目前仍處於AI革命的起步階段,這起革命將導致資訊生態系統進一步演進,使得問題更加惡化。機器愈來愈擅長製造合成媒體,人類互動及詮釋資訊和世界的方法也會改變。AI革命所帶來的,將是真假難辨的錯誤和不實資訊,亦即「深度造假」。

資訊末日有個顯著特徵,那就是人們對於如何呈現和理解這個世界,想建立合理的共識愈來愈難了。我們時常覺得自己被迫「選邊站」。進入資訊末日,即使想建立普遍「事實」的原則,並在此原則下進行理性辯論,都可能成為一大挑戰。

在受到污染的資訊生態系統之中,愈來愈多人日漸政治化;面對棘手的問題(種族、性別、墮胎、英國脫歐、唐納・川普、武漢肺炎〔COVID-19,又稱新型冠狀病毒肺炎,簡稱新冠肺炎〕等),立意良善的努力被導向輸贏之爭,終究落入派系對立的惡性循環。

失控的深度造假

資訊末日讓騙徒和罪犯更為橫行。在日漸增加、持續演進的威脅下,個人和企業都變得更脆弱。雖然這類攻擊出現的時間已不可考,卻在資訊末日推波助瀾下變得更容易進行,也更危險、普遍。深度造假將是惡徒的下一個武器。

他們的計畫十分大膽,令人匪夷所思。二○一六年,一群騙徒偽裝成法國國防部長尚-伊夫.勒.德里安(Jean-Yves Le Drain),成功騙取了五千萬歐元。他們借助影音通訊功能,透過電話和視訊通話和富人取得聯絡,要求資助法國政府的「機密」任務。計畫相當魯莽,所用的工具也相對不具科技性。

其中一名騙徒戴上矽膠製作的勒.德里安面具,坐在一張看似政府的辦公桌後方,背景懸掛著法國國旗。接著,騙徒開口要求數百萬歐元獻金。在Google圖片搜尋輸入「勒.德里安詐騙案」(Le Drain Plot),就會看見這些詐騙目標曾在視訊通話中看見的影像,效果甚至無法和前幾章提到的深度造假案例相提並論。

配戴勒.德里安矽膠面具的男子看起來就像惡夢裡會出現的角色,面無血色、眼睛只剩下詭異的黑色空洞。然而,仍有三位在現實生活非常成功、給人精明印象的商界代表上鉤了;其中包括伊斯瑪儀派穆斯林的精神領袖阿迦汗四世,他將兩千萬歐元分五次匯入設於波蘭和中國的帳戶;而土耳其商業鉅子伊南.克拉齊,則以電匯轉出四千七百多萬歐元,以為這筆款項會用於替敘利亞遭綁架的兩位記者支付贖金。

看來荒謬不已的詐騙計畫卻獲得成功,證明了影音通訊的效果。如同第一章所述,我們只是還沒意識到聲音和影像是能夠被竄改的媒體。我們屢次掉進冒名頂替詐欺的陷阱(即使是那些最富裕、擁有最多資源及最受保護的人也一樣)。

聲音詐騙手段

聲音詐騙是全世界騙徒都在使用的強大手段,AI則是共犯。藉由深度造假的語音軟體,AI相當善於生成人聲。請參考YouTube網站的「語音合成」頻道。該頻道由一位匿名YouTube用戶在二○一九年八月成立後,迅速累積了近七百萬瀏覽次數。語音合成頻道的目的顯然是娛樂大眾而非造成傷害,但頻道內容盜用了他人的聲音──包括讓已死的人「復活」──隨即也產生了道德和法律上的疑慮。

「語音合成」頻道最受歡迎的影片,讓美國總統約翰.甘迺迪的聲音在人世重現。影片標題是〈甘迺迪講海豹部隊哏〉,我看到時只覺得莫名其妙──「哏」?我點下播放。聽見甘迺迪獨特的聲音,我嚇了一跳。影片中的聲音說:「幹,你他媽的剛剛說我怎樣,你這小賤貨。」「給我聽好,我在海豹部隊畢業的成績數一數二。我出過超多次突襲蓋達組織的機密任務,戰績三百人以上。」怎麼回事?聽起來的確有點僵硬、不自然,但那絕對是甘迺迪本人的聲音,有著甘迺迪獨特的腔調和抑揚頓挫,就像原音重現。

「海豹部隊哏」是知名的網路迷因,取笑在網路上假裝自己是「硬漢」的人。出處是二○一二年的一篇瘋傳文章──原作者當時的確想假裝自己是個「硬漢」。為了回應其他網友的評論,他寫下一系列荒謬的聲明,毫不掩飾地向對方示威:包括他是戰鬥經驗豐富的前海豹部隊成員,以及「殺了三百人」。文章內容充滿滑稽的錯字和誇飾,例如「油雞(游擊)戰」和「兩手空空我也能用超過七百種方法殺了你。」

阻止繼續造假

索拉納斯在《人渣宣言》中主張,男人只是「生物學的意外」,女性必須「立刻」在「沒有男性協助下」繁衍下一代,而「每個男人的內心深處都明白自己只是毫無價值的垃圾。」基於索拉納斯提倡的暴力意識形態,彼得森反對自己的聲音被這樣挪用。寫完《人渣宣言》一年後,索拉納斯開槍射傷了藝術家安迪.沃荷(Andy Warhol)。雖然沃荷倖免於難,往後的人生卻都必須穿著壓力衣。

彼得森描述了他在二○一九年八月發現這些深度造假語音時煩悶的心情:我已經身陷其中,任何人都能製作和我本人沒兩樣的聲音或影像,讓我說出任何他們想讓我說的話。我還能怎麼辦?真正的問題在於:在不久的將來,我們又該如何相信電子媒體傳達的一切訊息?各位必須認清現實,你們的聲音、你們的肖像權都面臨很高的風險。

對於將我們彼此串聯,讓我們保持安定的共識,還有什麼比這更嚴峻的挑戰?我們必須盡快訴諸合法的管道,阻止深度造假的製造者。

《深度造假:比真實還真的AI合成技術》
作者:妮娜.敘克
出版社:拾青文化
出版日期:2020/10/14


可用鍵盤操作