(社論)生成式AI人工智慧 應審慎入法

醒報編輯部 2024/07/02 13:03 點閱 2289 次

政府現在研訂AI基本法,其中有關生成式人工智慧(GAI, Generative AI)部分要特別注意。最近出現了一些GAI值得注意的錯誤和失敗,顯示GAI在準確性和可靠性等方面的挑戰。這裡有一些例子:

聊天機器人易誤導

加拿大航空聊天機器人事件:加拿大航空使用的聊天機器人向客戶誤導了有關死者家屬折扣的政策,並說參加葬禮的旅行折扣可以追溯應用,這與該公司的實際政策相矛盾,導致該航空公司被訴且敗訴,此案顯示使用GAI時,公司還是必須負責,不可歸咎給GAI。

社群媒體上GAI生成的露骨圖像:在露骨內容充斥平台後,X(以前稱為 Twitter)不得不阻止對泰勒絲 (Taylor Swift) 圖像的搜尋。這顯示GAI生成的內容很難監管和控制,不當內容會迅速傳播並造成傷害。

AI學會咒罵公司

DPD聊天機器人故障:送貨服務DPD被迫關閉其線上聊天機器人,因為該機器人會咒罵和批評公司。聊天機器人的行為,包括產生一首關於公司缺陷的詩,說明了在沒有足夠保障措施的情況下部署GAI的風險。

GAI產生的政治假訊息:在2024選舉年中,有心人士利用GAI來製造和傳播假消息,誤導選民和造成不公平的選舉,如果沒有法律規範似乎很難避免GAI變成操縱選舉的工具。

這些例子說明了GAI可能出現的各種重大錯誤,需要嚴格監督、持續改進AI模型以及強大的人機互動流程,以確保準確性並防止傷害。要糾正GAI生成的內容和避免錯誤有一些可行的方法:

應做人工審核

人工審核和編輯:這包括專家審核,並相關領域的專家審核和編輯GAI產生的內容,以確保準確性。還有可以使用事實檢查軟體和手動驗證來確認所提供的資訊是否正確。

改善GAI的訓練:包括在高品質、可靠的資料集上訓練AI模型,以減少產生虛假資訊的可能性。還要持續學習,使用最新的經過驗證的資訊定期更新和重新訓練。

應對公司究責

透明度和問責制:GAI產生的文章要包含來源和引文,以便讀者可以驗證資訊。同時要明確揭露那些內容由GAI生成,以便究責。

回饋機制:實施回饋系統,讓使用者可以報告不準確之處,從而及時糾正。也要使用AI工具來監控生成內容並標記潛在的不準確之處以供審查。

當然GAI還是有很多用處,在撰寫一般社交的文章,普通的新聞稿件等。但在一些方面可能就不適合仰賴GAI,例如在高度專業或技術的領域,這些領域需要深厚的專業知識和深入地分析理解,如先進的科學研究、醫學診斷和法律分析,就不適合用GAI。

善用它而不役於它

還有非常依賴人類創造力和主觀解釋的領域,例如文學、詩歌和評論文章,如果由GAI產出,品質和原創性可能會受到影響。再來是涉及心理健康、個人建議和文化評論等敏感主題的內容需要高度的同理心、道德考慮和情境理解,而GAI可能缺乏這些心理素質。

此外涉及法律法規、合規問題和財務報告的文章必須遵守嚴格的標準和精確度,由於不準確的風險很高,因此也不太適合GAI。

GAI的問世代表了AI新時代的來臨,但它必須小心謹慎的使用,也要持續的改進,希望GAI是Good AI的代表,而不是令人傷心的Glum AI。