《STEAM》科技巨擘左右創作的獨立性

張瑞雄 2021/03/16 19:00 點閱 4495 次

去年9月,時任谷歌AI道德團隊的共同負責人格布麗,在推特上向華盛頓大學計算語言學教授愛蜜莉發送了一條私人消息。問愛蜜莉是否寫過有關大型語言模型的道德考慮的文章,或者愛蜜莉可以推薦其他人的相關文章。

所謂的大型語言模型就是一種人工智慧系統,該系統從閱讀網路上所有網頁的內容來學習和精進。

AI訓練充斥偏見

由於網路上的文章基本上充滿著性別歧視和一些政治或道德正確的文章,例如在描述男性時就用勇敢、堅強等字眼,對女性則是軟弱、需要男人照顧等形容,顯然用這些內容訓練出來的AI系統也會充滿著偏見,特別需要加入道德方面的考量。

這個問題牽涉及到谷歌的基本產品的未來,那就是搜尋引擎如何回答問題。在過去幾年中,這種語言處理的AI變得越來越強大,越來越流行,例如OpenAI的GPT-3(Generative Pre-trained Transformer)AI系統,可以給一段文字生成一篇文章,自動撰寫從新聞報導、食譜到詩歌的所有內容。

『隨機鸚鵡』的危險

每年谷歌都須應付超過數萬億次的查詢,在2019年末,谷歌開始依靠這種AI來幫助回答來自美國用戶的十分之一的英語查詢。現在AI已經可以處理幾乎所有的英語查詢,並且發展到其他數十種語言的查詢。

雖然愛蜜莉也不是AI的專家,但兩人一經討論後決定合寫一篇論文來討論這方面的問題。一個月後,這篇論文完成並投稿到美國電腦協會的關於公平、問責和透明度的會議。

該論文的標題是「論隨機鸚鵡的危險:語言模型會太大嗎?」並且在問號後還包含一個小鸚鵡表情符號。(片語『隨機鸚鵡』指的是這些巨大的AI模型將單字和文章拼湊在一起而沒有真正理解它們的前後關聯和意思,類似於鸚鵡如何學習重複聽到的東西。)

科技巨擘把持研究

在12月2日,格布麗突然發了一條推文說她已被谷歌「立即開除」,因為在她發送給內部的一封電子郵件中,對谷歌持續缺乏多元化感到失望,也對谷歌要求她撤回論文或不要掛名感到不滿。

格布麗離開谷歌的AI道德團隊導致谷歌AI部門的一連串動盪,包括員工離職、領導階層改組以及外界對谷歌在AI研究的不信任感日益擴大,未來從谷歌出來的論文是否可以相信其內容?

路透社最近的一份報告指稱,谷歌律師編輯了其研究人員的一篇AI論文,這也加深了人們對谷歌研究工作的不信任感。(谷歌對路透社的回應是說,由於法律用語使用不正確,因此編輯了該論文。)

除谷歌之外,許多科技巨擘也都設有研究中心,例如微軟研究院和臉書AI研究中心,它們盡量傾向於是一個獨立的研究單位,但畢竟研究資金是來自母公司,外界不免懷疑其研究結果一定是隱公司的惡和揚公司的善。

這就是大學為何那麼重視學術自由,只有教授可以無憂慮的發表研究成果,事實才不會被掩蓋。