《STEAM》運用人工智慧的利與弊

張瑞雄 2020/10/27 16:15 點閱 5482 次

人工智慧科技現在席捲全球,不管政府或企業界都言出必人工智慧,但人工智慧到底是甚麼,會不會被吹噓得太過分了(overhyped)呢?

人臉辨識要靠量大

人臉辨識是人工智慧最廣泛的應用之一,但是根據一位麻省理工學院的資料科學家所做的研究,發現由微軟、亞馬遜與 IBM 等大公司研發出的人臉辨識演算法,對於白人、及黑人或女性竟然出現了不同的辨識率,甚至影響到民眾權益。

基本上,人工智慧的前提是需要大量的資料來訓練其演算法,以前人臉的資料庫可能白種人的資料較多,以至於人臉辨識判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。這個錯誤並不全是人為刻意造成或是演算法的錯誤,而是我們給它的資料不夠完整和大量。

這也讓亞馬遜、微軟與 IBM 等矽谷大企業紛紛暫停服務,但難保警政單位不會轉向採用一些小公司的人臉辨識系統,有可能造成更大的歧視和傷害。

很多新創公司想用人工智慧來解決顧客的問題,他們第一件要問顧客的事情就是有沒有歷史的資料可以供參考。如果顧客過去沒有收集資料的習慣,或者即使有資料,若資料的正確性和準確性都有問題,那麼人工智慧系統只會根據錯誤的資料做出錯誤的判斷,這就是很多人工智慧案例失敗的主要原因之一。

數據分析有利有弊

2017年《經濟學人》雜誌宣布說數據而非石油才是全球最有價值的資源,而且數據的重要性一直不斷地被重複。目前幾乎每個政府機關和每個行業都已經且繼續在數據和分析方面進行大量的投資。不過石油會造成氣候暖化,數據的分析也有其不好的一面。

從數據分析和由機器學習演算法所獲得的知識或洞見或智慧,可以為組織帶來競爭優勢,但是一次的分析錯誤就可能對公司在聲譽和收入造成巨大的損失,更嚴重的甚至牽涉到人命。

失敗的先例

2016年微軟在社交媒體推特上發布了AI聊天機器人(ChatbotTay),這是一個想要試圖「理解人類對話」的實驗。聊天機器人被假設為一個十幾歲女孩的性格,並結合使用機器學習和自然語言處理功能,透過推特與人互動。

微軟事先使用了一些公共論壇的對話資料和喜劇演員預先編寫的一些材料作為訓練的資料,然後將其放上推特與使用者互動並持續學習。

但在16小時內,聊天機器人發布了超過95,000條推文,但內容卻表現出明顯的種族主義、厭惡婦女和反猶太主義,微軟迅速停止該服務並想進行調整,但後來實在沒辦法,只好讓其壽終正寢。

所以不管人工智慧演算法有多厲害,你不給它很多很好的資料,當它開始要無中生有去推論時,甚麼情況都有可能發生,因此瞭解人工智慧的本質,和知道你餵給他的數據是否是高品質是最重要的。