【台灣醒報記者簡嘉佑台北報導】生成式AI仰賴巨量資料,法規原則在於「保護隱私」!數位部長唐鳳13日於AI論壇表示,至今已有許多兼顧隱私與AI發展「隱私強化技術」。資策會科所所長蕭宏宜指出,整個人工智慧系統的參與者都應身分認證,才能進行更有效的管理,避免AI出錯、卻無人負責的狀況。
經濟日報13日主辦的「2023科技論壇AI創新應用大浪潮」邀請產官學各方代表致詞,包括行政院副院長鄭文燦、交通部長王國材、廣達電腦資深副總楊麒令與台灣微軟總經理卞志祥與台大資工教授林守德都出席。
隱私為AI發展要務
唐鳳說,生成式對話引擎能夠流暢回答問題,就是運用到「巨量資料」,但更重要的是,這些資料都應合法合規,基於保護隱私的方式來運用。她說,現今已有許多契合AI發展需求的「隱私強化技術」,盼能兼顧隱私保護與技術發展兩大目標,如透過「非個資數據」供機器學習與分析應用。
她表示,預計在年底成立「AI評測中心」會與國科會所開發的「可信任AI對話引擎」密切合作,設立AI模型的測試基準,並鼓勵業者自發送測,共同促進AI生態的安全性,也期待能與國際接軌。
AI偏見有危害
工研院AI策略長余孝先則表示,生成式AI與其他類型人工智慧最大的不同就是「能生產出東西」,但這個能力仰賴於大量資料的投餵。他也說,目前AI生成的限制在於:訓練資料的成本變得愈來愈昂貴,且內容存在偏見,還有資料被不當運用等狀況,意味著生成式AI仍有許多爭議。
蕭宏宜舉例說,人工智慧偏見在金融系統可能會成為相當敏感的事情,像是如果大多數銀行都借助類似的人工智慧系統來設定貸款條件時,一旦有民眾申請被拒絕,就相當於被大多數銀行回絕,這就是AI吸收大量資料後所產生的偏見。
他說,這意味著AI仍有可能出錯或有嚴重偏見,這樣如果AI在金融領域決策時出現錯誤時,誰該負責?蕭宏宜表示,所以目前就有學者提出,包括相關於AI的開發者、使用者等人工智慧系統參與者都應進行身分認證,才能對人工智慧進行管理,
台灣機會在資料庫
余孝先將生成式AI產業分為「垂直應用」、「軟體平台」、「伺服器」與「晶片」四個領域,其中垂直應用的市場範圍最廣,能夠存活的廠商最多;而能在生成式AI晶片存活的晶片商就寥寥可數,如現在9成生意都在輝達手上。
余孝先指出,在生成式AI領域,台灣能繼續擴張的部分就是最廣泛的「垂直應用」,台灣應就自身的產業優勢來進行探索應用。余孝先舉例說,生成式AI需要大量資料,資料大多儲存於雲端中,但如果台灣有屬於本國的雲端資料庫服務,如晶片設計等機密資料就能存於國內,就能夠減少資料外洩的風險。