廖明輝:AI基本法三讀 傳產的斷層與焦慮

立法院於日前三讀通過《人工智慧基本法(AI基本法)》,象徵我國正式跨入AI治理的法律時代。然而,若從歐盟與韓國的AI政策與法案觀察,我國此項立法雖具開創意義,卻仍面臨治理深度、執行力與產業引導的重大挑戰。對比歐盟《AI法案》與韓國《AI基本法》,台灣須加快步伐,從原則宣示走向AI應用落地。

歐盟《AI法案》直接規範AI產品與服務供應鏈的實體規則,不僅詳細區分AI系統風險等級(禁止、高風險、有限風險、最低風險),也明訂供應者與部署者須履行的透明、揭露、資料紀錄、模型測試等義務。明確禁止利用AI進行潛意識操控、社會評分與違反人權用途,將「通用型AI模型」(如ChatGPT)納入監管範圍,要求提供訓練資料摘要與系統透明性報告。整體而言,歐盟法律以高強度合規與高額裁罰,催促企業在開發與部署階段就內建倫理與法治要求。

反觀韓國,早在今年1月即公布《AI基本法》,成為繼歐盟《AI法案》之後,第二部關注AI的國家級立法。韓國政府在9月成立由李在明總統擔任委員長的「國家AI戰略委員會」,宣示韓國達成全球三大AI強國願景。韓國不僅制定具體目標(例如2028年前建置5萬顆GPU),也以稅務減免、公共採購與研發資助方式全面拉抬AI國產化。更將AI高速公路、AI資料中心納入國家基礎建設,讓產業快速對接算力與資料資源。這與台灣目前由各部會或民間自發建設AI基礎設施模式,形成鮮明對比。

以立法而言,歐盟以「法律先行」方式將治理要求化為即時強制力;韓國則以「目標先行」方式,由國家投資計畫催動公私協力與政策集中力。台灣雖在法案提到設置「國家AI戰略特別委員會」,但此委員會每年僅需開會一次即達標,組織功能與預算權限也未明確揭示。與韓國由總統親自擔任委員長迅速推動政策計畫作法相比,恐怕淪為紙上諮詢機構。

若要讓《AI基本法》真正落地,台灣應優先處理幾項關鍵問題。首先,風險分級機制應參照歐盟架構儘速落地,將禁止用途、高風險情境、透明揭露義務化為具體操作規則,否則各部會難以落實子法。其次,透明、可追溯、可問責機制不可停留在政策文件,須內建於模型版本控管、資料來源記錄、人工覆核流程等系統規格。第三,個資治理應從「最低蒐集原則」與「預設保護設計」出發,強化敏感資料處理的制度力與技術力,避免技術創新犧牲隱私安全。

此外,AI發展對勞動市場衝擊也不容忽視。我國《AI基本法》雖強調「尊嚴勞動」與「技能落差彌補」,但政策尚未規劃明確職務再設計、再培訓路徑與勞動監督機制。這些對傳統產業而言尤為重要,否則未來AI應用廣泛擴散後,恐會加劇產業斷層與社會焦慮。

作者:中華經濟研究院輔佐研究員/廖明輝
資料來源:2025/12/25 中國時報