軍火商與科學家 都反人工智慧武器

鄭國強 2016/01/26 15:07 點閱 19693 次
即便連軍火商也反對發展人工智能武器,科學家指稱,作戰決策過程中排除人類環節將導致災難性後果,這意味著人類被剝奪了道德責任。( 翻攝自電影「魔鬼終結者:創世契機」畫面)
即便連軍火商也反對發展人工智能武器,科學家指稱,作戰決策過程中排除人類環節將導致災難性後果,這意味著人類被剝奪了道德責任。( 翻攝自電影「魔鬼終結者:創世契機」畫面)

【台灣醒報記者鄭國強綜合報導】「沒有透過人為控制機制的機器,若故障將有十足的毀滅性,不適合上戰場。」英國航太與國防集團(BAE)總裁羅傑卡爾公開發言反對人工智慧AI武器,但現場包括一向反AI武器的加州大學柏克萊分校計算科學教授羅素表示,「真正該關切的是這些機器是否遵循戰爭法則?」

根據《法新社》報導,百位科學家、大學教授與軍火商19到23日在瑞士冰雪覆蓋的滑雪勝地達佛斯舉行一場關於人工智慧機器人研討會,來自德國的聯合國高級裁軍事務代表Angela Kane說,許多國家及國際社會的當權者,仍不清楚人工智慧武器到底意味著什麼?

機器自主 將成災難

科學家表示,發展自主判斷武器將把戰爭帶進危險的新世紀,羅素表示,「我們談論的不是有人操控的無人機,而是不靠人類操控的自主性戰爭機器人。」

西英格蘭大學電子工程教授Alan Winfield說,作戰決策過程中若排除人類環節將導致災難性後果,這意味著人類被剝奪了道德責任,再者,人工智慧武器的行為也將難以預測,因為當它被放在一個混亂的環境中,行為就會變得混亂。

羅傑卡爾也同意這個觀點,他警告,不論在戰時或平時,一個人若從決策中排除了道德判斷及人類行為規範,就會變得難以理解,更何況是機器人。羅傑卡爾「這就是為什麼機器仍需人機連線,像母親與孩子的臍帶相連,因為決定何時動用它們與何時該停止的決策都一樣重要。」

違反道德 應禁AI

除了面臨AI機器人與人類發生種族競爭以外,羅素認為「真正該關切的是,這些機器是否遵循戰爭法則?」機器人能否區別平民與軍人? 反抗軍、叛亂份子還是民兵?它能否知道不該去殺一個從飛機跳傘逃脫的飛行員?

羅素表示,「我是基於道德理由反對人工智慧武器,因為美國曾基於生物武器可能有天傷害到所有的人,而宣布放棄發展生物武器,希望有天它們也可以放棄對人工智慧武器。」Angela Kane說,世界各國已漸漸採取措施,以保護人類免受致命技術的荼害,但仍嫌晚。