跳到主要內容

算力:國家競爭力的新戰略高地與治理架構



隨著人工智慧(Artificial Intelligence, AI)技術邁入以大型語言模型(Large Language Models, LLMs)和生成式 AI 為主導的「工業化」階段,計算能力(Compute,以下簡稱「算力」)已徹底超越其作為單純硬體基礎設施的傳統定義。在當前的地緣政治與經濟格局中,算力演變為決定國家未來經濟競爭力、科研創新能力、國防安全以及文化主權的核心戰略資源。算力不再僅是技術擴張的問題,而是國家治理能力是否能跟上技術複雜度的嚴峻測試。

當前,模型參數規模呈指數級增長,訓練前沿模型所需的資金門檻已逼近十億美元量級,能源消耗更是挑戰國家電網的極限。這種極端的資源集中化趨勢,導致算力資源正迅速向少數跨國科技巨頭(Hyperscalers)集中,形成潛在的寡頭壟斷局面。對政府而言,如何調配、管理並確保算力的公平、安全與永續取得,已非單純的市場機制所能解決,而必須上升至國家戰略層次進行干預。

全球主要經濟體——包括美國、歐盟、日本、英國、加拿大及新加坡——已陸續提出各自的算力治理策略。整體趨勢顯示,各國政府正從早期的「放任市場發展」轉向「積極戰略干預」,試圖在依賴商業雲端巨頭與建立「主權 AI 雲」(Sovereign AI Cloud)之間尋求平衡。美國透過 NAIRR 計畫追求科研資源的民主化;歐盟利用 EuroHPC 與 AI 工廠計畫強調監管合規與技術主權;日本則透過 GENIAC 計畫實施積極的產業補貼政策以扶持本土基礎模型。

在這樣的國際政策背景下,算力逐漸被視為與水電同等重要的「新型公共基礎設施」。相對應的治理重點,已不再只是算力的總量擴張,而是如何建立透明、高效且具備戰略導向的分層分配機制,並將能源永續性正式納入算力發展的硬性約束條件。


從技術層轉向治理層:算力即國力

在過去的數位化浪潮中,算力主要被視為資訊科技產業的後端支撐,是企業資本支出(CapEx)的一部分。然而,隨著深度學習技術的突破,算力已成為與數據(Data)、演算法(Algorithms)並列的 AI 發展三大支柱。不同於數據的非競爭性(可無限複製)與演算法的開源趨勢,算力具備高度的「排他性」與「物理限制」——它依賴於昂貴的硬體、精密的供應鏈與龐大的電力供應。

根據長期追蹤研究顯示,前沿 AI 模型的訓練算力需求在過去八年中呈現驚人的增長態勢,平均每年增長幅度達 2 到 3 倍。這意味著算力的供給速度必須遠超摩爾定律(Moore's Law)的歷史軌跡,才能勉強支撐技術的迭代需求。當 GPT-4 或 Gemini Ultra 等模型的訓練成本從數千萬美元攀升至數億美元,並被預測在數年內突破十億美元門檻時,算力已不再是任何單一學術機構或中小企業所能獨立承擔的資源。

從國家治理的宏觀視角來看,算力同時具備公共財屬性與戰略資產屬性。

如同交通網絡、電力網或供水系統,算力是支撐數位經濟運作的基礎底座。若缺乏普惠、可負擔的算力存取權,學術界的研究人員與初創企業的創新者將難以參與 AI 發展,導致技術紅利與話語權集中於少數科技巨頭手中,進而加劇社會不平等。

同時,高階算力(如 NVIDIA H100 或 Blackwell 架構 GPU)受限於極度複雜且脆弱的全球供應鏈。在中美科技競爭的背景下,算力已成為出口管制與地緣政治博弈的核心標的。掌握自主可控的算力資源,直接關係到國家在危機時刻的韌性、數據主權的完整性以及國防技術的自主性。

治理挑戰的核心命題

政府當前面臨的算力治理挑戰,其複雜度已遠超傳統基礎設施建設的範疇。這不是一個單純關於「購買更多 GPU」或「建設更多資料中心」的預算問題,而是一場涉及多重維度的治理考驗,直接測試政府的資源調度能力與戰略判斷。

首先,是分配正義的兩難。在高階算力資源極度稀缺的情況下,政府應如何設計分配機制?是優先支持能夠產生巨大商業價值、具備全球競爭潛力的企業,還是致力於維護基礎研究,保障大學實驗室與非營利組織的存取權?這牽涉到效率與公平之間無法迴避的結構性權衡。

其次,是基礎設施主權的選擇。政府究竟應自行投資數十億美元建設國家級超級電腦中心,承擔技術快速迭代所帶來的高折舊與淘汰風險;還是向商業雲端供應商採購算力服務,透過營運支出模式換取彈性與即時性,同時承受數據隱私、法律管轄以及供應商鎖定所帶來的長期依賴風險?

第三,是能源與永續之間的衝突。算力本質上是能源的轉化形式。隨著 AI 模型規模擴大,資料中心用電量快速攀升,已開始對國家電網穩定性構成挑戰。在追求算力擴張的同時,若未同步納入碳中和與能源轉型目標,算力政策終將受到物理條件的限制,無法持續推進。


算力治理的深層結構:經濟學與供應鏈脆弱性

要理解算力治理為何成為迫切的國家議題,必須回到其背後的結構性條件,包括成本結構的急遽變化,以及全球供應鏈的高度集中與脆弱性。這兩個因素共同構成政府介入算力治理的現實基礎。

訓練成本的「十億美元障礙」與階級固化

人工智慧發展正經歷一場資本密集化的質變。前沿模型的訓練成本快速逼近十億美元等級,並被普遍預期在未來幾年內持續上升。這種成本結構的轉變,主要來自幾個關鍵因素。

首先,是硬體資本支出。高階 GPU 本身價格昂貴,加上構建數萬顆晶片互聯集群所需的高速網路設備,使得硬體採購往往佔據整體成本的近半比例。隨著模型規模不斷擴大,硬體投資門檻持續拉高。

其次,是能源營運支出。雖然能源成本在總成本中的比例未必最高,但其絕對值隨模型訓練規模呈線性甚至超線性成長。訓練單一前沿模型所消耗的電力,已可與中小型城鎮數個月的用電量相提並論。

再者,是高階人才與研發投入。頂級 AI 科學家與工程團隊的薪酬、長期研發與組織維持成本,同樣構成無法忽視的支出項目。

這樣的成本結構,正在形成明顯的「算力階級固化」。傳統上作為創新源頭的學術界與中小企業,因無法負擔前沿模型訓練的高昂成本,逐步被排除在最前端的技術競賽之外。當大多數具指標性的 AI 模型由產業界主導,技術路線與研究議題自然更容易受到商業誘因影響。這正是市場失靈的典型情境,也是政府必須介入算力治理的核心經濟學理由之一。


供應鏈瓶頸與地緣政治風險

算力的另一個關鍵結構性問題,來自高度集中且脆弱的全球供應鏈。這使得算力不只是產業資源,而逐步被納入國家安全的討論範圍。

首先,在晶片製造端,高階 AI 晶片幾乎完全依賴極少數先進製程節點。先進製程的高度集中,使得任何地緣政治衝突、產業事故或政策限制,都可能對全球算力供給造成系統性衝擊。

其次,更直接限制 AI 晶片出貨量的,往往不是晶圓製造本身,而是先進封裝產能。將邏輯晶片與高頻寬記憶體進行高密度整合的封裝技術,本身門檻極高,產能擴張速度有限。即便整體晶片需求明確存在,實際可交付的算力仍受到封裝產能的嚴重制約。這也意味著,即使國家具備足夠預算,也未必能在短期內取得所需算力資源。

第三,在算力部署與服務層面,全球市場高度集中於少數大型雲端服務商。對非美國家而言,這種集中化結構帶來實質的數位依賴風險。若發生地緣政治衝突、法律管轄權爭議,或大型雲端服務中斷事件,國家級關鍵系統與公共服務可能直接受到影響。


國際算力政策路徑的比較觀察

在上述成本結構與供應鏈條件下,各主要經濟體依其產業結構、科研體系與地緣政治位置,逐步形成不同的算力政策路徑。

美國:科研資源民主化與安全要求並行

美國在算力政策上的主要關切,在於維持其技術領先地位的同時,避免科研資源過度集中於少數科技企業。透過跨部會協作與公私合作機制,美國嘗試降低學術界與非營利研究單位取得算力的門檻,並將安全與信任要求前置於資源分配流程中。

在實務運作上,算力資源的配置並非齊頭式分配,而是透過同儕審查機制,評估研究計畫的科學價值、公共利益與安全風險,再進行資源配對。可用資源來源同時包含政府部門所屬的高效能運算設施,以及私部門提供的雲端算力。這種作法,使算力不僅成為研究工具,也成為引導研究方向與行為的重要政策槓桿。

歐盟:以主權與合規為核心的算力架構

相較於美國,歐盟在算力政策上的出發點明顯不同。歐盟缺乏具全球規模的本土雲端服務商,因此其算力布局與其一貫的監管取向高度結合,將算力政策視為推動數位主權與法規合規的重要工具。

歐盟以 EuroHPC 聯合執行體為核心,整合成員國資源,建構跨國的超級電腦網絡。這些原本主要服務於科學計算的高效能運算設施,逐步被重新定位為支撐人工智慧發展的關鍵基礎。隨著政策調整,算力資源開始對新創企業與中小企業開放,並透過「AI 工廠」的形式,結合算力、技術支援與法規指引,形成一套以公共投資為主軸的算力支撐體系。

在分配機制上,歐盟的顯著特徵,是將算力存取與合規要求直接掛鉤。申請使用算力資源的計畫,必須通過技術與倫理審查,確保模型開發與應用方向符合歐盟既有的人工智慧規範。算力在此不僅是技術資源,更成為推動法規落實的實質手段。

這樣的設計,反映出歐盟的政策判斷:在缺乏平台型企業的情況下,透過公共算力投資與制度性合規要求,維持對人工智慧發展路徑的實質影響力,避免在新一輪技術競爭中完全受制於外部技術體系。


日本:以產業補貼算力投入策略

日本在算力政策上的選擇,呈現出明確的產業政策取向。面對算力高度集中於國際雲端服務商的現實,日本並未嘗試由政府直接營運大型算力設施,而是透過高比例補貼的方式,降低企業使用算力的實際成本。

相關政策聚焦於鼓勵企業投入生成式人工智慧與基礎模型的研發。補貼設計針對不同規模企業設定不同強度,對中小企業提供更高比例支持,以加速整體產業對算力與模型開發的吸收能力。政策選擇的重點,不在於建立國有算力設施,而在於迅速提升產業端實際使用算力的密度。

在實際案例中,政策資源明確鎖定語言模型與本土應用場景,目的在於確保語言、文化與商業邏輯不完全依賴外部技術體系。透過補貼方式導引企業行為,日本試圖在有限資源條件下,保有一定程度的技術自主性與產業主導權。

英國與加拿大:以科研導向與制度分流回應算力集中

英國在算力布局上,選擇以科研體系為核心支點,將高效能運算與人工智慧發展明確錨定在國家級科學任務之上。相關政策投資重點,放在支撐藥物研發、材料科學、核融合、氣候模擬等長期且高度專業化的研究領域。算力在此被視為加速科學突破的關鍵工具,而非全面鋪開的產業資源。

在分配邏輯上,英國採取明確的優先排序機制,將算力資源優先配置給與國家任務高度相關的研究計畫。這種設計,刻意避免算力資源被零散分配至短期商業應用,確保有限的公共投資能集中於具有結構性影響力的研究方向。同時,英國也透過公私合作,引入硬體與系統整合商參與建設,以降低政府單獨承擔技術更新風險。

加拿大的做法則呈現出更為清楚的制度分流設計。公共資源一方面用於建設政府主導的高效能運算設施,主要服務學術研究與公共研究機構;另一方面,則透過專門的算力存取基金,補貼中小企業與新創公司租用商業算力。這樣的設計,刻意區分「公共科研算力」與「產業應用算力」,避免兩者在制度上相互擠壓。

此外,加拿大也透過競賽與誘因機制,引導私人資料中心投資,試圖在公共投資之外,培養本土算力供給能力。整體策略並非追求全面自給,而是在公共利益與產業發展之間建立相對穩定的平衡。

新加坡:以高度彈性的公私合作模式取得算力

新加坡在算力策略上的選擇,反映出小型經濟體在資源有限條件下的務實考量。相較於大規模自建算力設施,新加坡更傾向透過高度結構化的公私合作模式,引入外部技術能力,同時保留對關鍵應用場景與資料的實質控制。

在具體操作上,政府部門提供場地、電力與高品質資料資源,科技企業則提供最新一代的硬體與軟體技術,醫療或公共服務體系負責實際應用與驗證場景。這種分工方式,使各參與方能各自投入其最具比較優勢的資源,而非重複投資。

同時,新加坡在算力擴張上,明確納入能源與土地限制考量。資料中心建設需符合嚴格的能源效率標準,並搭配再生能源使用承諾,以避免算力成長對國家能源體系造成不可承受的壓力。算力在此並非無限制擴張的目標,而是需嵌入整體國家資源管理框架中加以衡量。

關鍵議題:能源、主權與依賴風險

算力相關政策不僅涉及資源分配,更直接觸及能源安全與國家主權的底線。當算力成為人工智慧發展的必要條件,能源承載能力、數據主權控制與對外部服務體系的依賴程度,就不再是附屬議題,而是政策設計必須先行處理的核心限制。

能源:算力發展的硬約束

「沒有能源,就沒有 AI。」這已不再是口號。資料中心與 AI 訓練用電量快速攀升,正在實質改變能源需求結構,也迫使政府把算力政策與能源政策綁在同一個決策框架內思考。

用電需求的增長已在部分國家與地區出現具體壓力。資料中心耗電占比提高,導致電網負載緊繃,並可能排擠民生用電與其他產業用電需求。當電網無法承受新增負載,算力的擴張將首先遇到物理極限,而不是技術瓶頸。

因此,算力政策必須納入明確的能源效率要求與再生能源配置。新建資料中心若缺乏能源效率上限、再生能源使用承諾與對電網衝擊的評估機制,將無法在長期維持政策一致性。綠色算力不再是加分項,而是准入條件。

主權雲與超大規模服務商之間的結構性拉扯

在算力部署與服務層面,過度依賴少數大型雲端服務商意味著長期的制度性風險。除了商業模式上的價格波動與供應商鎖定,最關鍵的是法律管轄權與資料控制權問題。當關鍵系統與敏感資料落在外部雲端服務體系內,國家在危機時刻的控制能力會受到限制。

因此,各國開始推動主權雲的概念。主權雲並不必然等同於完全排除外部技術,而是透過制度與技術手段,確保資料主權與控制權仍掌握在本國體系內。常見手段包括資料駐留、金鑰管理自主權,以及更高強度的實體隔離部署,以降低外部法域與服務中斷對關鍵系統的衝擊。

在部分安全等級要求更高的場景中,甚至會採取與公共網路物理隔離的部署方式,以確保關鍵資料與系統運作不受外部網路環境干擾。這類做法的政策含意很清楚:算力不是單純的 IT 採購,而是涉及國家控制權配置的制度選擇。

公私合作模式的必要性

純政府投資往往面臨效率與迭代速度限制,純市場運作則可能忽略公平性與國家戰略需求。因此,在算力政策上,公私合作逐步成為主要解法之一。

公私合作可以採多種形式,包括基礎設施共享、共同投資與風險分擔,以及透過政府採購承諾或算力券等工具創造需求,降低私部門投資風險。政府在此不必全面自建,但必須能透過制度設計確保公共利益與安全底線不被市場邏輯侵蝕。

政策方向:建構國家層級的算力制度框架

在前述國際經驗與結構性限制下,算力相關政策若僅停留在專案層級,將難以回應長期風險。算力必須被納入國家層級的制度設計中,以確保在技術快速變動與外部環境不確定性升高的情況下,仍具備基本的可控性與延續性。

將算力納入關鍵基礎設施體系

算力已具備與電力、供水、交通相近的系統性重要性。在制度設計上,應明確將算力視為關鍵基礎設施的一部分,使政府在面對重大網路事件、供應鏈中斷或國家安全風險時,具備相應的調度與優先配置能力。

同時,過度依賴即時商業市場,將使公共部門在價格波動與服務中斷時承受高度不確定性。因此,有必要保留一定比例由國家可直接控制的算力資源,作為基礎科研、公共服務與高敏感任務的穩定支撐,而非完全交由市場供給。

建立分層分流的算力使用機制

在算力高度稀缺的情況下,齊頭式分配容易導致資源錯置。更可行的作法,是依用途與公共性質建立分層分流的使用機制。

針對國防、氣候模擬、精準醫療與基礎模型研究等具有高度公共性與戰略性的任務,應提供長期且穩定的算力支持,避免因市場波動而中斷。
針對中小企業與新創團隊,則可透過補貼、算力券或租用支持方式,降低試錯成本,促進應用端多樣化發展。
而在高等教育與研究體系中,則需維持相對開放且可預期的存取機制,以確保人才培育與長期研究不被短期商業需求排擠。

把能源條件正式納入算力政策設計

算力政策若未同步考慮能源條件,將在實務上無法落地。新建資料中心與大型算力設施,必須同時評估電網承載能力、能源來源結構與長期供電穩定性。

在政策工具上,可透過能源效率標準、再生能源使用比例與區位引導,調整不同類型算力的部署位置。對延遲敏感度較低、但能耗極高的訓練型算力,可優先配置於能源條件較佳或氣候較冷涼地區;而對即時性要求較高的推論型算力,則配置於接近使用端的位置,以平衡效能與能源成本。

降低對單一算力供應體系的依賴

在制度層面,避免對單一雲端或單一技術體系形成長期鎖定,是提升整體韌性的必要條件。多雲與混合架構,有助於分散技術與法域風險。

對涉及個人資料、政府運作或國防相關的應用,應明確要求使用符合資料駐留、在地管理與實體隔離等條件的部署模式,以確保關鍵系統在極端情境下仍具備基本可控性。


結語

當算力成為人工智慧發展的主要瓶頸,它所反映的已不只是技術能力,而是制度設計與治理能力。能否在市場效率、公共利益、能源條件與主權風險之間建立可運作的平衡,將直接影響一個國家在人工智慧時代的位置。

算力不是中性的技術資源,而是一種會決定誰能創新、誰能設定議題、誰能長期掌握技術方向的結構性條件。當各國陸續意識到這一點,算力相關政策也不再只是科技政策,而是國家整體競爭力的一部分。

這場轉變已經發生,差別只在於是否具備足夠清醒的制度回應能力。


留言

這個網誌中的熱門文章

除了宣示價值,我們還有什麼?—人工智慧基本法的未竟之業

  除了宣示價值,還有什麼?—人工智慧基本法的未竟之業 隨著人工智慧基本法的正式推進,台灣在數位法制的版圖上終於立下了一根顯著的標竿。在制度符號學(Institutional Semiotics)意義上,無疑傳遞了清晰的訊號:國家機器正式承認,「人工智慧(AI)」已不再僅僅是實驗室裡的技術參數,也不只是產業界追求效率的經濟工具,而是必須被納入公共治理架構、甚至牽動既有權責配置與法秩序調整的核心。 此等立法選擇,平心而論,不令人意外,亦不特別激進。若回顧台灣過去二十年來面對數位匯流、個資保護甚至金融科技(FinTech)等新興議題的軌跡,會發現這相當符合台灣立法者的一貫邏輯——先確立抽象的價值與方向,再透過授權條款,期待行政機關逐步補齊制度細節。這是一種「宣示先行,實質後補」的立法慣性,旨在於變動劇烈的技術浪潮中,為行政機關保留最大的裁量彈性;然而,這種彈性的代價,往往是將「法律可預測性」(Legal Predictability)往後延,並將龐大的判斷成本轉嫁至市場與社會端。 真正的問題並不在於立法的時機或形式,而在於這種在傳統行政領域行之有效的「摸著石頭過河」策略,在面對人工智慧這種演化速度極快、滲透力極強的「通用目的技術」(General Purpose Technology, GPT)時,是否仍能如預期般運作?當立法者再次將難題拋回社會,要求行為主體「先理解原則,再自行判斷後果」時,我們是否正在製造一場巨大的監管迷霧? 更精確地說,這場迷霧不只是「不知道怎麼守法」,而是包含了至少三層結構性的不確定:誰來說清楚?什麼時候說清楚?以及要用什麼形式說清楚?這三件事如果沒有被制度化,原則就會變成口號,而口號最終只能換來無盡的等待。 歐盟經驗的鏡像反射:確定性的代價與價值 在當前的公共討論中,台灣的人工智慧基本法常被置於國際比較的脈絡下檢視,其中最顯著的參照座標,便是歐盟甫通過的人工智慧法案(EU AI Act)。主流論述將歐盟視為「監管先行者」的典範,認為其作法「走得比較前面」,因此自然成為台灣借鏡的對象。然而,若我們仔細剝開歐盟的制度洋蔥,會發現一個在台灣經常被忽略的事實:歐盟目前面臨的治理困境,並非來自「是否立法」,而是來自立法之後,行為主體究竟該如何將這些規範翻譯成內部流程、產品決策與責任配置。 歐盟採取的是一種近乎「產品安全法規」的邏輯。其制度之所以能...

當法律跑在能力前面,執法就變成賭局

When law outruns capability, enforcement becomes a gamble. 歐盟最新提出的「數位綜合方案」,將原本預計自 2026 年起陸續落地的 AI Act 高風險義務整體延後,並對 GDPR 的若干適用標準作出調整。這一系列時間表與技術條文的修改;從法制運作角度看,其實是歐盟試圖重新修正過去幾年高度前傾的監管節奏。核心訊息很直接: 當規範在行政能力、標準體系與產業準備都尚未到位時提前生效,制度本身便會成為新的風險來源,同時對 法律確定性(Rechtssicherheit)與可執行性(Vollzugstauglichkeit)產生損害。 過去十年,歐盟在數位領域採取的是一套高度主動的立法模式:先以框架性規範設定邊界,再透過技術標準、指引與執法實務慢慢填補細節。GDPR、DMA、DSA 乃至 AI Act 無不如此。這樣的作法在政治上具有明顯的宣示效果,也強化了歐盟作為「規則輸出者」的角色。但在 AI 與資料治理領域,這種先立架構、後補能力的路線,逐步暴露出其結構性限制: Regelungsdichte(規範密度)可以很高,Vollzugskapazität(實際執行能力)卻未必能跟上。 AI Act 的高風險義務便是一個典型例子。法條要求涵蓋技術文件完整性、訓練資料可追溯性、模型行為監測機制、風險管理流程等多重層面,每一項都假設存在一套成熟的標準體系與行政審查機制。然而,相關技術標準仍在制定過程中,各國主管機關的準備度明顯不一,企業端也尚未形成穩定的 best practice。在這樣的條件下,法規若在原定時程強行生效,實務上極易出現「義務已存在,但合格標準與審查方式未臻明確」的狀態。 對企業而言,這意味著法規遵循被迫建立在猜測之上:不知道做到何種程度才足以被認定為合規,卻必須提前調整內部結構與資源配置。對主管機關而言,則是在執法時缺乏穩定的判準,不同成員國之間的差異難以避免。這種情形直接侵蝕了 Rechtssicherheit,使法律本身成為一種額外的不確定性,而不是降低不確定性的工具。從這個角度看,延後義務並非削弱監管,而是試圖讓規範重新落在與現實能力大致相稱的水位,回到 Verhältnismäßigkeit(比例原則)可接受的範圍之內。 GDPR 的調整呈現出相同的邏輯,只是焦點從 AI 行為,轉移到資...

The price of waiting: what Taiwan’s AI law reveals about regulatory uncertainty

As Taiwan advances its proposed Artificial Intelligence Basic Act, the debate has largely focused on familiar themes: ethics, principles, and the need for “responsible AI”. These questions matter. But they are not the most consequential ones. The more important issue is economic rather than moral. It concerns how law structures expectations, how uncertainty is distributed, and how delay becomes a rational response when judgement is deferred. Taiwan’s AI legislation offers a revealing case study in the political economy of regulatory uncertainty — and in the costs of asking markets to decide first. At a symbolic level, the Basic Act marks a clear shift. Artificial intelligence is no longer treated merely as a technical input or an industrial productivity tool, but as an object of public governance. Its deployment is recognised as having implications for legal responsibility, administrative authority and decision-making frameworks. Yet symbol and structure are not the same. The law’s...