《STEAM》設計人工智慧 難以複製人類道德

張瑞雄 2021/11/23 17:29 點閱 1089 次

美國國防部在2017年成立了Maven計畫,加速國防部對大數據和機器學習的整合,應用計算機視覺演算法來標記監視飛機,或偵察衛星捕獲的圖像或影片中的人物識別。這計劃因為有將人工智慧「武器化」的疑慮,引起了很多的關注。

2018年當谷歌員工發現公司參與了Maven計畫後,數千員工發動抗議,他們在給公司領導層的一封信中寫說「谷歌不應該參與戰爭」,也導致一些員工辭職,谷歌在2019年就沒有續簽合約。

頒布人工智慧指南

但「砍頭的生意有人做,賠錢的生意沒人做」,Maven計畫依然存在,其他科技公司已經取代了谷歌的位置。然而美國國防部知道此一科技存在信任問題,在用最新科技來保家衛國之前,要讓人民知道國防部不會將人工智慧科技誤用、濫用或錯用,這需要提高透明度以讓人民檢視和信任。

因此美國國防部發布了一個「負責任的人工智慧」指南,它將要求所有廠商在為國防建構人工智慧系統時使用該指南,無論系統用於非軍事的人力資源或用於戰場的目標識別。

該指南為公司在規劃、開發和部署期間遵循的步驟和流程提供了指導,它們包括確定誰可能使用該技術、誰可能受到該技術損害、這些損害可能是什麼以及如何避免這些損害的程序,無論是在系統構建之前還是在系統啟動並運行之後。

恐怕會被濫用

批評者質疑,這些本來就是任何軟硬體開發商在發展系統之前都需要評估的,這個工作指南並沒有帶來任何有意義的改革。例如指南中根本沒有提到使用致命的自主武器(Lethal Autonomous Weapons)的問題,很多人認為這種技術根本就應該禁止。試想無人機搭配上攻擊的武器,不加以管制,以後不需要007就可以很容易暗殺掉不喜歡的人。

另外,監控軍事科技的開發和使用非常困難,因為它通常需要安全許可。如果你的機密等級不高,就無法接觸到像Maven這種重要的計畫,但機密等級高的通常是政府官員或內部人員,等於自己監控自己,如何被老百姓信任?

人類智慧難複製

這更深層的就是人工智慧的道德問題,到底人類是否可以發展出一套具有人類道德判斷能力的人工智慧系統?道德是非常主觀的,我們無法將所有的道德規則都能寫下來,交給一個電腦系統,然後期待電腦系統在面臨道德判斷或生死關頭時能有人類的抉擇智慧。

電力車特斯拉創辦人馬斯克說過:「人工智慧不一定要邪惡才能毀滅人類,如果人工智慧有一個目標,而人類恰好擋了它的路,它會理所當然、不假思索地毀滅人類,不會有什麼難受的感覺。」誠哉斯言!