《經濟學人》 Economist
在1968年的科幻片《2001太空漫遊》中,名導史丹利‧庫柏力克曾拍出令人對人工智能(AI)驚懼的一幕:太空人戴夫‧包曼出艙後,竟被機載電腦HAL 9000拒絕開門,只得活活地在太空中自生自滅。
在科幻的想像中,我們總是對AI又愛又怕,怕它太笨又怕它太聰明。近幾年隨著人工智慧的演進,聲控機器人已經漸漸地洗去了麻煩製造者的污名,成為我們的好幫手。
機器翻譯有難度
在語音辨識技術領域,過去Nuance 推出的「Dragon 自然說」是精確度最高的品牌,它靠的是用戶客制化的練習,讓機器習慣用戶的特殊口音。後來,這軟體更能深度學習:只要丟給它一大堆你日常接觸領域的文檔,它就會自己抓住你的常用字彙範疇,增加辨識精確度。
我們或許期待,「巴別塔」的語言變亂,可以通過機器翻譯解決,但《經濟學人》指出,有別於單一語言可用人工智慧辨識,「機器翻譯」的工作目前仍然是通過窮舉(暴力運算)的統計法進行的,這使得諸如中英兩種語感截然不同的語言要流暢對翻,人腦仍然會遠勝電腦的表現。
值得喜樂的是,「統計運算」這部分已經可以交給AI處理,所以你會看到運用統計引擎的穀歌翻譯,表現比傳統採僵硬規則制的 Babelfish 一類軟體工具好得多。
AI缺整合力
再談一個發生中的科幻場景:一個女孩子的男友過世,朋友為了解答她的相思,將男友生前所有的社群用戶留言置入AI學習,從而產生了一個能夠跟女友互訴衷腸、且對女友的生命瞭解因不斷學習而加深的「蠱AI 男友」。
某種程度上,這是可以做到的,女友也可以想像她的男友從未曾真正離開她。然而真正的人際互動需要建立在對世界的廣泛認知,而AI認知偏窄、反映直接,無法擁有處理各種無厘頭話題的能力。對於AI理解人類自然語言的能力,現在學界分成了兩派。
以設計「威諾葛雷測試」聞名的史丹弗科學家威諾葛雷就發現,機器理解抽象語義(如「指出一個比我高的人給我看」、「人們從台灣城市移到鄉下,因為那裡空氣比較好。那裡是指哪裡?」)的能力意外地差,這都是機器缺乏對世界綜合認識的證明。
科學家仍不知道人類大腦究竟是如何同時整合並利用這麼多種不同種類的知識。
http://www.economist.com/technology-quarterly/2017-05-01/language#Panel01