自從人工智慧圍棋程式AlphaGo在2016年擊敗世界圍棋高手李世乭之後,AI變成了顯學,也開始有了各方面的應用。但在2018年,發生了一系列備受矚目的AI相關事件,例如自動駕駛汽車撞車和歧視性的徵人AI軟體。
疫期監控AI成主流
在2019年,AI的好壞辯論、AI是否取代人類、AI的倫理成為熱門的話題,正當大家想要採取實際行動來改善時,在2020年初,冠狀病毒關閉了世界。
在家上班、社交距離、封城變成常態,在人與人保持距離,面對面溝通遙不可及的現實中,因為諸如臉部掃描識別的演算法和工作場所監視工具之類的AI系統反而逐漸成為主流。
還有監視學生線上上課和評估學生學習成果的工具,也順勢興起,這些都讓所有關於AI演算法危害的話題更加受關注。2020年8月,在英國政府試圖用AI來取代大學的入學考試,結果徹底失敗。好幾百名學生聚集在倫敦,高喊「去你的AI演算法」。
科技壟斷與歧視性
反AI團體的一大勝利是在BLM(Black Lives Matter)運動之後,亞馬遜、微軟和IBM都禁止或暫停將臉部識別軟體出售給執法部門,這是研究人員和民權運動家經過兩年奮鬥的成果,證明臉部辨識技術的無效和歧視性。還有另一個不引人注目的改變,那就是一個著名的AI研究會議,第一次要求研究人員在發表論文時要附上道德聲明。
令人擔心的是,科技巨頭對AI研究方向的強力控制,將整個AI領域的方向轉向越來越大的資料集和更大的學習模型,它讓一些資源受限的實驗室或研究者被邊緣化,導致AI的研究無法百花齊放,也限制AI的可能潛力。正如科技巨頭可以將公司內部不同意見者免職一樣,這些公司也可能扼殺AI 在理解力和創造力等方向的發展。
AI研究中對深度學習的壓倒性關注已經掩蓋了AI研究的主要目標之一,那就是創建一個不僅只能利用樣式匹配(Pattern Recognition)的學習機器,而且能真正理解含義的智慧機器。
提升AI理解與辨識力
並不是說利用深度學習永遠無法達到智慧,雖然這仍是一個懸而未決的問題,但是還有其他研究途徑值得投資和關注,例如將深度學習與符號知識系統結合在一起,或者嘗試使用少量學習資料的概率方法,這受啟發於兒童可以從很少的範例中學習的能力。
未來希望AI研究可以將機器的理解力放在辨識率之上,這不僅會得到技術上更強大的系統,也會帶來重大的社會影響。例如當前的深度學習系統容易被愚弄,導致自動駕駛汽車的不安全,或者臉孔辨識的錯誤或歧視,還有AI系統無法區分事件的關聯性和因果關係,也是讓AI無法讓人信任的主因之一。
法國革命家羅蘭夫人說:「自由,自由,多少的罪惡假汝之名而行!」希望未來AI不會取代「自由」這兩字呀!