Disinformation will become easier to produce, but it matters less than you might think
2024年包括美國、英國、印度與台灣都將面臨大選投票,生成式AI成為干政的重要武器,透過人工智慧製造大量假訊息來抹黑對手的狀況,將成為選舉必然要面對的課題。
人工智慧干擾選舉
在Chat GPT等生成式AI工具出現之前,美國前總統川普的支持者先前就曾因為「選舉遭到操作」的消息,衝進國會大廈,引發暴力衝突;中國官方也會透過親中的新聞媒體,不斷發布統戰消息,而上述的一切都是在不使用人工智慧的狀況,就已經存在的威脅。
在生成式AI迅速發展下,2024年要面臨的首要改變就是「海量的假訊息」,在各大平台充斥數以萬計的相同消息時,對選民的說服力也不儘相同,恐怕也會出現「萬人成虎」的狀況。
再者是「假訊息的品質將大幅上升」,透過生成式AI的操作,除了文字外,還有各式各樣虛假的音檔、照片或影片,還要擔心「深偽」(Deepfake)技術,干擾選民的試聽。此外,「假訊息投放目標也會更加精準」,在人工智慧的協助下,假消息也能因不同立場、區域的選民來量身打造。
選民立場難撼動
然而,樂觀的是,其實選民是很難被說服的,尤其是在總統大選之類的投票上面,再多的假消息也只能撼動一小部分的中間選民。
Chat GPT背後的公司Open AI表示,會持續監控Chat GPT在大選期間的使用情況,並檢測政治影響力操作。過去大型平台曾在2016年大選,因為傳播虛假信息遭到批評;但在2020年卻因為刪除過多訊息,同樣也慘遭罵名。但經過這些基業,企業在識別可疑帳戶方面變得更加擅長。
其他如Alphabet 和 Meta等大企業則禁止受操縱媒體的政治廣告,並表示「他們會迅速對深度造假做出反應」。其他公司正在嘗試制定一個技術標準來確定真實圖像和影片的來源。