台灣應建立語言模型 可抓到網軍操作

呂翔禾 2023/12/13 15:09 點閱 26018 次
AI Lab創辦人杜奕瑾13日介紹相關AI演算法線上監控的進展。(Photo by 呂翔禾/台灣醒報)
AI Lab創辦人杜奕瑾13日介紹相關AI演算法線上監控的進展。(Photo by 呂翔禾/台灣醒報)

【台灣醒報記者呂翔禾台北報導】「透過訓練台灣自己的語言模型並結合AI,可以了解網軍如何操作!」臺灣AI Lab創始人杜奕瑾13日指出,台灣需要建立自己LLM(大型語言模型),可以讓AI減少對簡體中文的偏見,並藉此找出不合台灣使用者語言習慣的網軍。AI Lab團隊則舉例,近日包括古文、違建與藍白合等議題都在臉書與PTT等社群軟體上有大量操作。

AI要避免偏見

杜奕瑾表示,他當年(2016年)離開微軟,就是因為擔心人工智慧被大科技公司與大政府掌握,讓科技「以人為本」的元素逐漸減少,當人工智慧的互動模式愈來愈接近人,但其中的偏見還是需要避免,這在如美國開始討論人工智慧監管時都有很多討論。

他強調,人工智慧最重要的就是避免偏見,以大型語言模型為例,相關的演算法僅有不到10%是中文,其中又有90%是簡體中文,因此相關的語言模型訓練出來的使用習慣,會跟台灣民主國家的習慣相差甚遠。因此他們近年來也開始努力訓練台灣的自己的語言模型Taiwan LLM。

發現不正常使用者

杜奕瑾提醒說,自己身為熱門學生網絡PTT創辦人,此軟體並未商業營利使用,但近年來很多假帳號出現,還有駭客會害入舊帳號,在許多言論版上帶風向,但他們從疫情開始,也建立了大型的語言模型,透過閱讀大量文章,了解台灣的語言使用習慣後,得以發現網路上的不正常使用者,並進行監控。

他分析說,網軍的特點就是遵從特定指令,在一定時間出現與消失,是相當集體行為的操作,除了在選戰議題上發現哪些議題被操作,在商業上也可以應用,國際上愈來愈多友邦表達對此系統的興趣。未來他們希望相關軟體與模型可以應用在醫療與金融,並透過訓練、建立FedGPT以減少AI的偏見。

網軍操作各類議題

AI Lab團隊指出,透過模型可以看出,最近被嚴重操作的議題有古文課綱,還有總統候選人違建等議題,而他們不是看網路聲量,而是已經鎖定非正常人類的「協同帳號」進行分析。團隊還指出,在藍白合破局後,PTT出現最大量的留言是「棄柯保侯」,在臉書則是「2024下架民進黨」,近來則因古文議題流行,因此換成「民進黨是沒文化的共產黨」。