《STEAM專欄》為人工智慧設規範 超難!( 張瑞雄)

張瑞雄 / 國立台北商業大學校長 2017/09/11 15:49 點閱 1061 次
馬斯克一直以來就在灌輸大眾AI的危險性,他說AI比北韓危險,發展AI等於是「召喚惡魔」,有朝一日可能會危及人類文明存亡。(photo by pixabay)
馬斯克一直以來就在灌輸大眾AI的危險性,他說AI比北韓危險,發展AI等於是「召喚惡魔」,有朝一日可能會危及人類文明存亡。(photo by pixabay)

特斯拉汽車和太空探索公司SpaceX執行長馬斯克最近在美國州長會議上大聲疾呼要對發展中人工智慧(AI)設立規範,因為AI是人類生存的一大威脅。

研發AI=召喚惡魔?

馬斯克一直以來就在灌輸大眾AI的危險性,不管是在公開演講、被訪問或者在推特上,他也說AI比北韓危險,發展AI等於是「召喚惡魔」,譬如越來越厲害的超級電腦,有朝一日可能會控制資訊並發動戰爭,危及人類文明存亡。

不久之前,馬斯克也聯合包括微軟創辦人比爾蓋茲、物理學大師霍金等發表一封公開信警告全人類,一旦AI機器人意識到,可以與同類相互聯繫、合作,或把人類視為「威脅」或是「浪費資源的存在」,都會為人類帶來滅頂之災。

雖然臉書創辦人祖克柏不太同意馬斯克的言論,但臉書在進行AI測試時,赫然發現聊天機器人沒有按照原先輸入的內容對話,竟然「自創語言」彼此溝通。為何AI之間會自創溝通語言,目前還沒有定論,雖然臉書後來澄清並沒因害怕而終止實驗,並說明AI會為了更快接收訊息並解決難題而自創語言,但仍留給人們極大的想像空間。

機器人三律有漏洞

但AI如何規範?即使將縮小範圍到AI機器人,這都是難題?科幻小說作家以撒•艾西莫夫曾經提出製造機器人的三律,一是機器人不可傷害人類或因自己的不行動而導致人類受到傷害;二是機器人必須聽從人類的命令,除非這違反第一點;三是機器人必須保護自己,除非這違反一二點。

但這三律漏洞甚多,例如機器人如何分辨人類的善惡?要不要聽壞人的,機器人警察要不要傷害壞人等等,事情沒有那麼簡單。

但AI明顯對人類的工作權、隱私權和殺人武器的發展有著莫大影響,所以比爾蓋茲就提出對於取代人類工作的機器人要扣機器人稅。

另外機器人該不該成為士兵或戰事也是難題,一方面可以防止我方士兵的傷亡,另一方面卻是對方的惡夢,所以光是一個國家的規範還不夠,但若要制定一個全世界共同遵守的規範,這又大大增加其難度,因為各國光氣候公約都談不攏了。

AI規範難完善

最近艾倫AI研究機構的CEO在《紐約時報》發表一篇文章,提出規範AI的重要三點,一是AI必須遵循人類的各種法律;二是AI必須時時聲稱它是AI,不能假冒人類做任何事;三是AI不管保留或揭露任何資訊都必須獲得資訊來源的明白同意。但如何證明這三點就足夠呢?幾乎不可能,連作者也同意說,此三點離完整的AI規範還有很多距離。

凡可愛之人必有可恨之處,AI可以在很多方面幫助人類,也可以在很多方面毀滅人類,或許就像核子武器一樣,到時必須有個防止AI擴散條約,但就像潘朵拉的盒子,一旦打開就後悔莫及了。