依據歐盟施行的個人資料保護法,我們致力於保護您的個人資料並提供您對個人資料的掌握。
按一下「全部接受」,代表您允許我們置放 Cookie 來提升您在本網站上的使用體驗、協助我們分析網站效能和使用狀況,以及讓我們投放相關聯的行銷內容。您可以在下方管理 Cookie 設定。 按一下「確認」即代表您同意採用目前的設定。
Latest News
中銀文摘
2025-10-01
AI 專區
〔AI 監管進入新戰國時代〕美歐中日星各走一條路,台灣該選哪邊站?(上)
【中銀律師事務所 馮昌國合夥律師 / 李芝語】
roick.feng@zhongyinlawyer.com.tw
roick.feng@zhongyinlawyer.com.tw
讓所有人意外的是,世界毫不意外的又再一次的不一樣了。
人工智慧(AI)帶起的風潮讓所有人都猝不及防,包含各國政府。一如往常(不過這次稍微快一點),納管與規範的聲音此起彼落, 這次,全球政府倒是很有默契,紛紛用各自最快的速度與「誠意」,對 AI 管制框架進行表態。
自 2024 年以來,各國紛紛推動新法案、新政策與新的治理倡議,試圖平衡「鼓勵創新」與「控制風險」的難題,每個國家最終選擇的路徑,反映了各自的價值觀、政治體制與國家發展策略。從美國聯邦政府監管路線大轉彎(換人當家了,當然…)以及州法院的各領風騷、歐盟嚴格管制的 AI 法案塵埃落定,到中國祭出「中國特色」的各種暫行辦法、倡議、框架來服膺政策走向、日本則一向穩重的推出 AI 基本法、新加坡(及其他觀望中的市場)也以各項技術性法規調整搭配「軟法」先行以為因應,AI 治理框架的討論正式進入新戰國時代。
坦白說,身為科技島國的台灣,在 AI 的監管框架的政策表態中,似乎慢了一步。應該要用什麼樣的思維,找到最佳定位?也許,可以先借鏡各國的管制框架,跟制度背後各自隱藏的發展戰略。
一、美國:自由、邊界跟 MAGA
美國的 AI 治理邏輯,在一開始仍然遵循美國傳統,以市場自治與司法救濟為主,沒有統一的聯邦 AI 基礎法規。
2024 年前,美國政府多以發布沒有強制力的行政指導為主,如白宮於 2022 年發布的「AI 權利法案藍圖」(Blueprint for an AI Bill of Rights)和美國國家標準暨技術研究院(NIST)於 2023 年發布的「AI 風險管理框架」(Artificial Intelligence Risk Management Framework)等。然而,從 2024 開始,美國出現十分特別的雙軌「進化」:一方面,各州立法與司法動作頻繁,另一方面,聯邦層級因換人「當家做主」而政策急轉。
各州自主立法
談 AI 怎麼能不看加州呢?2024 年加州曾嘗試訂立嚴管 AI 的法案「安全、可靠與透明AI法案」(“Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, SB 1047)草案,針對尖端「前沿模型」要求安全測試、風險評估和內建「緊急停止開關」(kill switch)。此案一度在州議會通過,但最終在 2024 年 9 月被加州州長 Newsom 否決。Newsom 否決的理由充滿加州式的政治正確,他認為該法案過度聚焦於最大型和最昂貴的 AI 模型而偏廢小型、特殊的模型;此外,他批評法案缺乏實證分析且標準過於嚴格,不但可能妨礙創新,更不利於加州 AI 產業在「全球」的 AI 競爭地位(一個州長的論述放眼全球,也只有在加州了!)。
除加州外,科羅拉多州在 2024 年 5 月率先通過全美首部 AI 綜合管制法規「CAIA」(Colorado Artificial Intelligence Act ),該法要求高風險 AI 系統開發者對防止演算法歧視盡到合理注意義務,並強制 AI 服務須向消費者清楚揭示「我是 AI」。此外,猶他州於 2024 年 5 月實施「Artificial Intelligence Policy Act」(UAIPA),規定生成式 AI 與消費者互動時,須在開始時明確告知對方正在與 AI 而非真人互動;紐約市則自 2023 年 7 月起實施「Local Law 144」,要求雇主或人力仲介使用自動化招聘決策工具(Automated Employment Decision Tool,AEDT)時,需接受年度偏見審查(bias audit),並告知求職者與員工其招聘流程使用 AI 工具,並防止演算法歧視的情形發生。此外,美國許多州在 2024 年起也相繼頒布禁止 Deepfake 的法令。
司法同步驅動
大家可能都知道,美國是所謂判例法(case law)的法體系,也就是法院累積出的判決,具有跟實定法類似的效力。不同於各州在「治理」層面所設定的成文法管制框架,美國法院則以判決,對社會中真實存在的重要權利義務若干爭議問題,一錘定音。
最具指標意義的是華盛頓聯邦地方法院在 Thaler v. Perlmutter案件中,針對明確表示純粹由AI生成的圖像不享有著作權保護。本案中,法官明確指出「人類創作」是祝作物受著作權法保護的核心必要條件。這表示 AI/機器只能「產出」,不屬「創作」,更不能被稱為「作者」。
同時,多起牽涉 AI 訓練數據的著作權侵權訴訟也方興未艾:如《紐約時報》記者與OpenAI、微軟的訴訟、Getty Images 控告 Stability AI 等案件。此類案件尚未有終局裁決,但勢必成為美國甚至全球釐清訓練 AI 所「餵」的訓練資料,是否屬於著作權法中的「合理使用」抑或「侵害著作權」的重要指標。
白宮政策與聯邦轉向
在各州與各級法院爭先恐後對AI表態的同時,聯邦政府的 AI 監管立場經歷了戲劇性轉折。
2023年10月,拜登政府發布歷來最全面的 AI 行政命令(第 14110 號,全名為 “Executive Order on Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”),要求大型 AI 開發商向政府通報模型訓練與測試風險、強化 AI 安全標準等。然而,2024 年總統大選變天後,川普政府於 2025 年 1 月火速撤銷了上述行政命令。取而代之,川普於 2025 年 1 月 23 日簽署新的第 14179 號行政命令(該命令的名字很 MAGA:「移除阻礙美國 AI 領導地位的障礙 ( “Executive Order 14179 – Removing Barriers to American Leadership in Artificial Intelligence”)」),大幅放寬聯邦 AI 管制。
川普政府的 AI 戰略強調「解除非必要規制、讓市場驅動創新」,主張恢復市場自由,以便確保美國在 AI 的全球競爭中保持領先。2025 年 7 月白宮更公佈「星門(Stargate)計畫」等政策方案,從「加速創新」、「建構 AI 基礎建設」、「代領國際外交與安全」三大面向提出高達 90 項的具體措施。該計畫在確保 AI「可信且無意識形態偏見」的同時,著重鬆綁對產業的不利規範,推動企業投入 5,000 億美元 AI 基礎建設等手段,期望鞏固美國在 AI 技術的領先地位。這與拜登時期聚焦 AI 安全和公平的監管思路形成鮮明對比。
聯邦政策轉向之際,州與聯邦在如何管制AI的議題上,開始出現緊張關係(如同很多其他的問題一般)。川普甚至試圖(偷偷)以「大美麗法案(One Big Beautiful Bill Act)」打包強度關山,要求聯邦立法凍結未來 10 年聯邦優先,各州不得自行以州法監管AI,但該提案在國會未獲通過。取而代之的是較柔性的誘因措施,例如白宮便透過「美國 AI 行動方案」(America’s AI Action Plan)公開表態,聯邦資金分配時,應考量各州 AI 法規環境,避免補助落入「過度管制」州份。這體現出美國 AI 治理正呈現「聯邦鬆、地方嚴」的割裂局面:華盛頓傾向讓市場自由發展,許多州則對風險更為積極干預。
美國的政策邏輯
如果鳥瞰美國的管理模式,也許可以這樣理解:聯邦希望帶頭提供自由的創新空間,但各州「軍閥割據」,以「防弊」為出發點的管制力道各不相同,而 AI 產業(如同其他在美國「出生」的各種創新產業)可在如此「中央」v.「地方」的灰色地帶,自行野蠻生長;但如果長得太野蠻,強大、昂貴且耗時的司法體系,便會強力介入,用以劃定野蠻生長的邊界。站在產業的角度,良禽確實有機會「擇木」而棲,但也必須承受巨大的司法不確定性風險。
二、歐盟:一如往常的布魯塞爾效應
如同個資保護的 GDPR(General Data Protection Regulation)、虛擬資產管制的 MiCA(Markets in Crypto-Assets Regulation)、數位平台中介治理的 DSA/DMA(Digital Services Act / Digital Markets Act),歐盟在 AI 治理上毫不意外的走向「規則主義」的另一極端,強調以立法先行全面系統性的嚴格管理 AI 風險。
最具代表性的成果便是 2024 年通過的「人工智慧法案」(AI Act)。這部法案是全球第一部綜合型、全面性適用各領域的 AI 專法,其核心是嚴格的「風險分級」管理模式。
2024 年歐洲議會、理事會經過漫長協商,終於在 2024 年 5 月正式批准 AI 法案,並於 2024 年 8 月 1 日生效。法案規定自生效起 2 年後(即 2026 年 8 月)全面適用,但部分義務將提前生效。其中,「不可接受風險」的 AI 系統禁令在生效 6 個月後即開始執行(2025 年 2 月);對如同 GPT-4 的通用目的 AI(GPAI)的額外義務則自生效 1 年後(2025 年 8 月)陸續上路。
立法過程與妥協
即便是管制成性的歐盟,在推動「AI 法案」時也經歷了激烈的內部拉鋸。歐洲議會主張對像 GPT-4 這類通用 AI 模型一律課以透明度、數據治理和風險管理義務;但部分成員國(如法國、德國)則憂心過嚴監管將扼殺歐洲本土 AI 企業創新(如法國的 Mistral AI、德國的 Aleph Alpha),希望能給予更多豁免與彈性。
最終通過的版本採取「雙層結構」折衷:所有通用 AI 模型都需遵守基本透明義務(如提供訓練數據摘要),而對被認定具有「系統性風險」的最強大模型,才施加額外的嚴格安全評估、對抗測試與風險報告要求。此一妥協顯示即便在堅定要當「監管領袖」的歐盟內部,創新與合規的博弈仍暗潮洶湧。
法規框架:事前合規 + 域外效力
與美國偏重原則野蠻生長外加隨時可能從天而降的「事後訴訟挑戰」不同,歐盟採行的是「事前審查核准」模式。
AI 法案將 AI 系統按用途風險高低分級:「不可接受風險」的應用(如社會信用評分、深偽欺詐)將被全面禁止;「高風險」類別(如醫療診斷、招聘、教育考核等關鍵領域)則要求在進入市場前通過嚴格的合規評估並取得 CE 合格標誌。開發者須提交技術檔、風險管理系統、數據治理方案並確保有人類監督等;違規者最高可處以 3,500 萬歐元或全球營收 7% 的罰款。
值得注意的是,歐盟法案具有強力的「域外效力」:只要 AI 系統的輸出在歐盟境內被使用,不論開發商或提供者是否設於歐盟,都須遵守該法。這種以龐大單一市場為籌碼,將自身規範輸出他國的「布魯塞爾效應」,果不其然的在 AI 領域再次體現。
未來幾年,隨著各國監管機構介入和企業合規投入,歐盟模式可能產生全球示範效應。事實上,歐盟的立法已經讓許多國家起而效尤,如同加拿大、英國等紛紛研議類似框架,日本、韓國則在基本法中參考了歐盟的高風險分級概念。可以預見,歐盟憑藉法律先行再次奠定數位規範話語權,其對 AI 透明度、責任歸屬和人權保護的高標準,將成為跨國企業非得投注的法遵成本。
三、中國:具社會主義特色、服務國家政策
中國的 AI 監管毫不意外的是其國家戰略的直接延伸。與歐盟制定一部包山包海的完整「專法」不同,中國式的 AI 管制框架,主要是依靠現有數據法規體系:包括網絡安全法、數據安全法、個人信息保護法,並在此基礎上,針對特定應用場景,以部門規章或暫行辦法等形式,迅速出招,以縮短政策空窗時間。例如:針對公布演算法及使用者資訊自主的問題,中國在2022年實施的「互聯網信息服務演算法推薦管理規定」,要求平台向用戶公示演算法基本原理,並賦予用戶關閉個人化推薦的權利。
針對在全球擾亂一池春水的 Deepfake(「深偽」)之亂,中國在 2023 年 1 月推出「深度合成服務管理規定」,對AI生成的Deepfake內容進行管制,要求任何使用Deepfake生成的影音內容須明確標識「AI合成」字樣,且未經「被Deepfake對象」之同意,不得使用生成之虛假人像,違者承擔法律責任。
針對生成式 AI 的管制,中國則在 2023 年公布的「生成式人工智能服務管理暫行辦法」,明確規定生成內容須顯著標識為 AI 生成,不得含有違背社會主義核心價值觀的資訊,並建立演算法備案制度(即相關服務上線前需向國家網信辦提交安全評估與演算法註冊備案)。上開法規將內容審查、著作權保護(亦即要求訓練數據須合法取得)和安全風險防控納入管制核心,也表示任何一個生成式 AI 模型或服務,「從搖籃到墳墓」的完整生命週期都會受到政府嚴格監管。
針對 AI 倫理與安全性的議題,中國國家標準化管理委員會分別於 2024 年及 2025 年,發布「人工智慧安全治理框架」1.0 與 2.0,呼應中國於 2023 年提出的「全球人工智慧治理倡議」。該框架以指導性文件形式,提出 AI 倫理和所謂「安全治理」的國家標準,主要包括數據品質、隱私保護、演算法透明、內容安全監管與技術即時更新等原則。這些舉措顯示,中國將「內容安全」視為 AI 治理頭等大事,務求把 AI 這把雙刃劍牢牢控制在可控範圍內。
綜上,中國模式反映出非常「中國風」的雙重監管哲學:一方面政府全力扶植中國 AI 產業(如百度文心、DeepSeek),把 AI 視為全球國力競逐的重中之重,在資金、政策上提供極大支持;另一方面,中國政府顯然也把 AI 當成維穩與意識形態的潛在威脅,而對AI應用實施嚴密管控,不允許出現挑戰政治紅線或挑唆輿論。這表示開發者除了對模型本身的開發之外,還要同時投注大量資源同步(甚至超前)發展「合規」管理技術。
中國試圖證明,快速迭代的精準監管,能既保障安全同時鼓勵創新,為 AI 發展中國家提供另一種 AI 治理模式。
*本文同步刊登於《TechOrange科技橘報》2025年9月26日發行之內容。