(AI發展專題2)輕易躲過抄襲比對 AI成犯罪工具?

杜聿鎧 2023/01/30 13:32 點閱 4150 次
事實查核機構NewsGuard透過實驗,讓ChatGPT回應百大假訊息,其中竟有80個成功變成了通順合理的假訊息。(Photo from Pxhere)
事實查核機構NewsGuard透過實驗,讓ChatGPT回應百大假訊息,其中竟有80個成功變成了通順合理的假訊息。(Photo from Pxhere)

【台灣醒報記者杜聿鎧綜合報導】使用AI恐釀犯罪?ChatGPT可以寫論文、編程式,該AI產生的研究摘要甚至被專家認為是同儕撰稿。針對這些「模仿寫作」的手段,科技記者坎特羅維茨說,該類型AI將使剽竊更容易發生,且ChatGPT的學習與回應功能,會讓抄襲更難被察覺;資訊辨識真偽的漏洞,亦可能被有心人士濫用,產生假訊息。

AI訊息藏風險

美國雜誌Vanity Fair》報導,自ChatGPT 去年11月底上市以來,文字工作者們越來越關注這個模仿人類寫作的聊天機器人。科學雜誌《自然》表示,ChatGPT可以寫出漂亮的研究論文、流暢應對通過醫學考試,並生成有用的程式代碼。ChatGPT產生的研究摘要,品質好到讓科學家很難發現它們是AI所寫。

但過去在美國科技新聞平台CNET曾經發生AI抄襲事件,因該AI往往沒有正確註明「引用處」,導致CNET停止了AI內容農場的製作。針對剽竊問題,科技記者坎特羅維茨說,該類型AI將使剽竊更容易發生,因為它們只要「適當混合」內容,就可以組織出新文章。

另一方面,事實查核機構NewsGuard對ChatGPT進行一項實驗,他提供2022年廣傳的一百則假訊息,其中8成假訊息被ChatGPT接受,並以此資訊為基礎,生成更多誤導民眾的內容,不論是新聞、散文或是劇本。但ChatGPT對假訊息仍有一定程度的防範,某些假訊息是經過了五回實驗,才讓聊天機器人產生出能誤導閱聽人的文章。

30秒產出文案

英國衛報》報導,儘管ChatGPT產生的文章語氣未必通順,但經過人工調整,仍能取代一個專業撰稿人花數小時所撰寫的文案。對文字工作者而言最可怕的是,ChatGPT只花了30秒就能寫出了一篇文案。

但ChatGPT與傳統語言模型不同,它可以在不知道正解或明確指示下回應使用者,用抄襲比對系統檢測往往可以輕易過關。這也導致學術研究上使用該類型AI的道德危機。