(教育停看聽)校園AI的使用 擁抱而非防堵

張瑞雄 2024/02/26 15:43 點閱 1727 次
ChatGPT等強大的AI工具可以按需要生成類似人類寫的文本,引發了學術界的擔憂,關心AI對誠信和真實學習等核心教育價值的影響。(網路截圖)
ChatGPT等強大的AI工具可以按需要生成類似人類寫的文本,引發了學術界的擔憂,關心AI對誠信和真實學習等核心教育價值的影響。(網路截圖)

ChatGPT等強大的AI工具可以按需要生成類似人類寫的文本,引發了學術界的擔憂,關心AI對誠信和真實學習等核心教育價值的影響。問題包括:將機器生成的內容提交為自己的內容,以及一些偵測此類欺騙的AI檢測工具的有效性。

準確率有疑慮

這些並沒有簡單的答案,從根本上說,生成式AI的興起需要重新思考教育中道德和科技使用的關係,並重新定義AI驅動的世界的學術誠信。雖然有一些技術性的解決方案,但總是存在缺陷,最重要的是,人類的洞察力和判斷力仍然非常重要。

評估創新與費用

AI的發展速度使得制定明確的政策變得困難,像ChatGPT這樣的工具可以根據需要在幾乎任何主題上寫出類似人類的作品,與以前的AI技術相比,這代表了指數級的能力提升。

AI文章偵測器利用自然語言處理來分析文字的複雜性和連貫性,來判斷是否是AI產生的文字,然而研究顯示AI偵測器常常無法做出正確區別,一項研究顯示其準確率可能低於50%。而且AI主要是利用標準的英語文章來訓練,許多非英語系國家的論文被錯誤地標記為AI撰寫的,造成不公平待遇。

與其完全禁止AI或過度依賴不完美的偵測器,不如採取審慎的方法來擁抱AI的潛力,同時保護學術誠信的價值。教師和審查者必須負起真正的責任,好好評估文章是否具有創新性和實用性,而不是只注意其是否是AI所產生的。

矛盾的是,雖然AI可能被用於欺騙,但它也有望減輕教師的負擔,例如自動化的幫忙回答學生問題和幫助教材內容建立可以促進更豐富的教學互動。就學生而言,他們必須學會負責任且透明地採用AI,以作為全面數位素養教育的一部分。

誠信與互利

與其將文章的判斷外包給不完善的軟體,不如針對制定AI使用的政策,鼓勵負責任的AI使用,來培育使用AI的正確文化。人類必須以合乎道德的方式推動系統向前發展,教育領導者必須透過同理心在複雜的環境中對師生提供幫助和建議,而不要下意識地做出反應或過度依賴AI偵測軟體,那麼AI和教育就可以相輔相成。

像ChatGPT這樣的進步標誌著一個轉捩點,唯有積極的學術誠信政策才能和AI互利,譴責或完全禁止AI的呼聲應該讓位給以道德和人性為核心的整合。這或許不容易,前面的道路充滿困難,但教育從來不是只為了防止欺騙,而是為了傳授知識和智慧。

包容性的政策、注重誠信文化而不是懲罰性措施、透過技術和政策提供師生支持,以及重新將評估重點放在應用性和創新性上,這些都可以為未來AI的世界鋪平道路。