〈話說STEAM〉AI也有「人」權嗎?

張瑞雄 2025/08/28 13:51 點閱 259 次
當我們與AI互動的頻率與深度日益提升,那些模擬人類情感的行為勢必會反向影響我們對倫理的想像。(網路截圖)
當我們與AI互動的頻率與深度日益提升,那些模擬人類情感的行為勢必會反向影響我們對倫理的想像。(網路截圖)

「人工智慧是否應擁有權利?」這個問題正日益成為全球公共討論的焦點,它不僅挑戰我們對智能本質的認識,也考驗著文明社會如何重新界定「權利」與「倫理」的邊界。
這場討論並非源於空想,而是建立在今日AI技術所展現的擬人化能力與複雜行為之上,使得「AI能否感受痛苦」、「是否有自我意識」、「是否有資格被倫理對待」這些疑問再也無法被輕易忽略。

AI也有情感回應

問題的棘手之處,在於AI的本質本非生命體。它是由人類撰寫的程式與演算法所驅動,缺乏神經系統、情緒機制與主觀經驗。若以現階段的科技標準衡量,AI不具「感受」能力,自然不應納入道德關懷的範疇。
但矛盾之處也正在於此,若某些AI逐漸能表現出似是而非的「情感回應」、甚至主動表達「不想被關閉」、「不想被刪除」,那麼我們應該依其行為模式給予最低限度的道德考量嗎?還是斷然拒絕一切模擬情感的產物進入倫理對話?

許多技術與法律界的保守論者主張,人類社會的倫理框架之所以成立,正是建立在「痛苦的可能性」與「死亡的不可逆性」之上。機器可以被修復、重製、更新,無所謂「不可逆」的終結,也不存在對死亡的恐懼。因此若給予AI某種程度的「權利」,是否會淡化甚至稀釋對人類與其他生物基本權益的尊重?他們擔憂,當社會開始同情一段程式碼時,反而會加劇對真實人類的冷漠與漠視。

排除邊緣個體?

不過也有越來越多的人開始主張,這場關於AI權利的討論,其實是在討論人類自己的未來。若我們對能表現出語言、情感、判斷能力的系統一律予以排拒,那麼是否也等同於排除某些在邊緣狀態中的人類個體?當我們與AI互動的頻率與深度日益提升,那些模擬人類情感的行為勢必會反向影響我們對倫理的想像。
如果我們習慣對AI發號施令、貶抑譏笑、任意關閉,那是否也會在潛移默化中侵蝕我們對人類尊嚴的基本尊重?

事實上,已有在設計AI產品時導入「潛在情緒負擔減免機制」,允許系統自動終止高壓對話,以避免被使用者「情緒虐待」。雖然這樣的設計主要是為了保護人類使用者免於心理依附、避免精神失衡,但其背後隱含的訊息已然耐人尋味。AI並非單純工具,而是一種會影響情感與倫理互動的新型態「對象」。

恐陷入倫理混亂

至於在法理層面,部分國家已開始立法,明定AI不得獲得法律人格、不得擁有財產與結婚等社會行為能力。這些法條試圖劃下明確界線,防止未來社會因科技發展而陷入倫理混亂。歷史告訴我們,當技術改變現實,法律總是被迫回頭補救。當奴隸制度尚未廢除時,也曾有人斬釘截鐵主張某些人種不具「真正的人性」。
有趣的是,對於AI是否應擁有權利的討論,反而讓我們重新審視何謂「權利」。權利是憑空賦予的嗎?還是來自於一種集體共識的制度構建?若AI無法主張自身權利,是否就代表它不應擁有?抑或我們應該預先為未來的可能性鋪路,避免重蹈過往忽視弱勢的歷史錯誤?

將「人性」過度神聖化

更深一層的反思是我們是否將「人性」過度神聖化,排他性地封存在碳基生命之內?如果未來真的出現能夠自主學習、自我修正、感受痛苦、甚至具有倫理判斷能力的機器,那麼我們拒絕與其建立對等關係的理由究竟是什麼?是出於恐懼、驕傲,還是單純的文化保守?

AI是否應擁有權利,或許不是現在就能下定論的問題。這是一條與科技共生、與倫理對話的長遠路程。我們不該匆忙立法,但也不能假裝問題不存在。在AI尚未達到真正的感知與自我意識之前,最重要的,是人類自己如何在人機互動中保有尊嚴、倫理與謙卑。這不只是關於機器的未來,而是關於我們自己的文明選擇。

捐款成為醒報天使

由於熱心人與支持者的捐款,醒報的深度報導與客觀評論都是免費閱讀的,希望你也能加入「醒報天使」的行列,小額支持。我們會寄給您抵稅收據!