AI恐摻假消息 專家:錯誤訊息難分辨

杜聿鎧 2022/07/19 13:44 點閱 6840 次
對於公司來說,隱藏模型和資料庫是他們的經營祕訣,儘管他們也經常擔心AI會失去控制,導致被人濫用。(維基百科)
對於公司來說,隱藏模型和資料庫是他們的經營祕訣,儘管他們也經常擔心AI會失去控制,導致被人濫用。(維基百科)

【台灣醒報記者杜聿鎧綜合報導】AI文字流利,能寫高中論文!近年人工智慧(AI)發展迅速,各家公司極力研發,然而專家指出,因為AI資料庫並未公開,加上能以人類語言流暢編寫文章,當資訊一多,AI反而可能參考錯誤消息來源,然而科技社群並沒有通用的規範,使得對AI的規範仍舊鬆散。

AI後台隱藏秘密

「成為一台有感覺的電腦是什麼感覺?」面對這個問題,人工智慧會給出令人驚喜卻又合理的回答。面對複雜的情境,可以回答出一些困難的問題,儘管有時人工智慧反而會意外搞砸某些簡單的事情,但如今卻是人類生活的利器。

這些功能強大的AI系統被稱為大型語言模型(large language models),他們經過大量的文本和影音內容的訓練,可以成為客戶服務的聊天機器人,包括Google搜尋、電子郵件自動完成句子的功能。只是多數的科技公司都會對AI的運作方式保密,導致一般人很難理解為何AI會出錯,成為錯誤消息、種族主義訊息和其他危害的來源。

根據《CNN》報導,AI非常擅長以人類語言的流暢程度編寫文字,工程師指出,「他們無法總是實事求是,儘管看起來非常連貫,邏輯正確,卻往往是錯誤的。」Facebook和Instagram的母公司Meta AI的總經理表示,「一群又一群的人宣布在做AI工作,但因為公開度很低,一般人幾乎沒有能力真正深入理解這些AI背後的模型如何運作。」

AI、人類難區別

對於公司來說,隱藏模型和資料庫是他們的經營祕訣,儘管他們也經常擔心AI會失去控制,導致被人濫用。隨著AI越來越有能力,也編寫出了許多健康指南網站、高中論文或政治文章,計算機科學副教授Liang指出,「錯誤的訊息會倍增,而且人們會越來越難分辨訊息是來自AI或是人類。」

雖然多數的公司都會對內部的AI設計保護措施,但Liang指出,AI科技社群應該要有更通用的基本準則來規範研究和決策,比如何時將新的模型放到網路上進行使用。

Google的LaMDA是目前最新的AI之一,它內建語音能夠與人對話,因為它在回答問題時令人印象深刻,一位工程師甚至認為它逐漸有意識,卻也導致了這名工程師在上個月被Google停職。