![事實查核機構NewsGuard透過實驗,讓ChatGPT回應百大假訊息,其中竟有80個成功變成了通順合理的假訊息。(Photo from Pxhere)](/system/assets/images/000/075/198/big/%E4%BA%8B%E5%AF%A6%E6%9F%A5%E6%A0%B8%E6%A9%9F%E6%A7%8BNewsGuard%E9%80%8F%E9%81%8E%E5%AF%A6%E9%A9%97%EF%BC%8C%E8%AE%93ChatGPT%E5%9B%9E%E6%87%89%E7%99%BE%E5%A4%A7%E5%81%87%E8%A8%8A%E6%81%AF%EF%BC%8C%E5%85%B6%E4%B8%AD%E7%AB%9F%E6%9C%8980%E5%80%8B%E6%88%90%E5%8A%9F%E8%AE%8A%E6%88%90%E4%BA%86%E9%80%9A%E9%A0%86%E5%90%88%E7%90%86%E7%9A%84%E5%81%87%E8%A8%8A%E6%81%AF%E3%80%82%EF%BC%88Photo_from_Pxhere%EF%BC%89.jpg?1675052968)
【台灣醒報記者杜聿鎧綜合報導】使用AI恐釀犯罪?ChatGPT可以寫論文、編程式,該AI產生的研究摘要甚至被專家認為是同儕撰稿。針對這些「模仿寫作」的手段,科技記者坎特羅維茨說,該類型AI將使剽竊更容易發生,且ChatGPT的學習與回應功能,會讓抄襲更難被察覺;資訊辨識真偽的漏洞,亦可能被有心人士濫用,產生假訊息。
AI訊息藏風險
《美國雜誌Vanity Fair》報導,自ChatGPT 去年11月底上市以來,文字工作者們越來越關注這個模仿人類寫作的聊天機器人。科學雜誌《自然》表示,ChatGPT可以寫出漂亮的研究論文、流暢應對通過醫學考試,並生成有用的程式代碼。ChatGPT產生的研究摘要,品質好到讓科學家很難發現它們是AI所寫。
但過去在美國科技新聞平台CNET曾經發生AI抄襲事件,因該AI往往沒有正確註明「引用處」,導致CNET停止了AI內容農場的製作。針對剽竊問題,科技記者坎特羅維茨說,該類型AI將使剽竊更容易發生,因為它們只要「適當混合」內容,就可以組織出新文章。
另一方面,事實查核機構NewsGuard對ChatGPT進行一項實驗,他提供2022年廣傳的一百則假訊息,其中8成假訊息被ChatGPT接受,並以此資訊為基礎,生成更多誤導民眾的內容,不論是新聞、散文或是劇本。但ChatGPT對假訊息仍有一定程度的防範,某些假訊息是經過了五回實驗,才讓聊天機器人產生出能誤導閱聽人的文章。
30秒產出文案
《英國衛報》報導,儘管ChatGPT產生的文章語氣未必通順,但經過人工調整,仍能取代一個專業撰稿人花數小時所撰寫的文案。對文字工作者而言最可怕的是,ChatGPT只花了30秒就能寫出了一篇文案。
但ChatGPT與傳統語言模型不同,它可以在不知道正解或明確指示下回應使用者,用抄襲比對系統檢測往往可以輕易過關。這也導致學術研究上使用該類型AI的道德危機。