國安會諮詢委員李育杰表示,主權AI是未來AI發展的重要趨勢,目的在於各國都需要建立各自的AI基礎設施,以便在掌握經濟潛力的同時,保護自身的文化。

圖片來源: 

臺灣資安大會提供

2022年底,ChatGPT的橫空出世,彷彿在平靜的科技湖面投下一顆顆震動彈,迅速在全球掀起一股生成式AI的熱潮。這項技術不僅展現了驚人的創造力與多元應用潛力,也讓各國政府體認到背後所蘊藏的經濟發展與國家安全雙重含義。

正因如此,一個新興的概念——「主權AI」(Sovereign AI)——正浮出水面,引發全球關注,成為當前國際間科技發展與國家戰略佈局的重要關鍵字。

國家安全會議諮詢委員,也是中央研究院資訊科技創新研究中心研究員李育杰表示,各國已逐步認識到生成式人工智慧(Gen AI)的雙重用途,既能推動經濟成長,也可能帶來國家安全風險。為此,越來越多國家的積極規畫,建立屬於自己的人工智慧基礎設施、研發能力和產業生態,以提升國家競爭力,並維持未來這些國家致力於發展其具備永續性的「主權AI」。

他也說,「主權AI」這個詞彙在2024年2月以前,對於許多國際資安或AI專家而言還是相當陌生。究竟什麼是主權AI?為何臺灣在此刻將其提升到國家戰略層次?

李育杰引述輝達(NVIDIA)執行長黃仁勳在2024年2月14日演講,強調每個國家都需要建立自己的人工智慧基礎設施,以便在掌握經濟潛力的同時,保護自身的文化。「這番說詞,無疑為全球積極發展本土人工智慧的趨勢,提供了強而有力的佐證。」他說。

在這股全球性的主權AI浪潮中,臺灣自然不落人後、迎頭趕上,面對如雨後春筍般堅強的大型語言模型,臺灣也積極展開行動,期望建立屬於自己的AI能量,打造可信任AI對話引擎TAIDE。

李育杰表示,賴清德總統自2024年5月20日就任一個月後,總統府便設立「全社會防衛韌性委員會」,聚焦提升國家在關鍵基礎設施、能源、通訊、交通、金融等各領域的韌性。在這些領域中,網路空間(Cyber space)的活動扮演著至關重要的角色。正因如此,他認為,在網路安全領域探討「主權AI」的議題,更能彰顯其時代意義。

臺灣積極催生臺版「主權AI」

儘管生成式AI(Gen AI)在諸如即時翻譯等方面,展現出巨大的應用潛力,但其背後潛藏的風險在初期並未受到足夠重視。李育杰指出,「主權AI」核心理念在於:一個國家應當均衡發展自身擁有的、真實可信的AI基礎設施,從而維護國家核心競爭力。這需要大量的投入,因此,在全球發展生成式AI的同時,保有自主發展能力至關重要。

自2022年11月30日ChatGPT問世以來,生成式AI以前所未有的速度改變了人們的生活。相較之下,儘管早在2016年就有學者預見AI將帶來深遠的變革,但當時AI的實際應用並未對大眾生活產生顯著影響。

但隨著中國軟體如TikTok(抖音)和小紅書在臺灣影響力的日益擴大,也加劇臺灣發展自主AI解決方案的緊迫性,李育杰強調,這不僅關乎國家主權,更涉及國家心理層面的安全。

李育杰坦言,令人慚愧的是,在ChatGPT問世之前,臺灣學界對於生成式AI的投入相對不足。從2019年開始的大語言模型發展歷程來看,包括華為、百度、阿里巴巴、Google等國際巨頭都已積極參與,其中卻沒有任何臺灣企業或研究機構的身影。細究其原因在於,臺灣過去缺乏能夠支持國家級大語言模型開發的投資方案。

他表示,為了快速建立屬於臺灣的ChatGPT,研究團隊曾向ChatGPT本身尋求建議。ChatGPT給出的步驟包括:大量收集臺灣語料庫(來自網路、書籍、新聞、博客來等)、整理語言資料、利用深度學習技術進行訓練、評估模型回答臺灣相關問題的準確性,並透過帶有人類回饋的強化學習進行微調以提高性能。

然而,ChatGPT也指出,即使臺灣成功訓練出自己的模型,其能力也很難與OpenAI訓練的ChatGPT相媲美。這是因為OpenAI的模型經過了更大量的訓練,擁有更複雜的模型架構和更廣泛的知識與能力。儘管如此,ChatGPT也提到,臺灣訓練的模型仍然可以在特定領域提供有價值的訊息,解決特定的問題。

李育杰也分享早期使用ChatGPT的體驗,例如模型會輸出簡體中文,並且在被要求使用繁體中文後,道歉訊息仍然以簡體中文呈現,這反映當時的模型對於簡體和繁體中文的區分能力不足。正因如此,在2023年農曆年後,李育杰就與當時的國科會主委吳政忠溝通,提出臺灣發展自然語言模型的重要性。

李育杰表示,臺灣政府規畫發展自主的AI基礎,目標是建立像ChatGPT這樣的大型語言模型,讓臺灣的企業、銀行、醫院等機構能夠安心使用AI功能,而不必擔心受到臺灣政治情勢變化的影響。

李育杰強調,如果不能儘快建立自主可信賴的大語言模型,臺灣將面臨嚴重的國家安全問題。他再次提及TikTok的例子,因為在言論自由的框架下,臺灣目前還沒有找到有效解決抖音影響力問題的方法;而大型語言模型的普及,將會帶來更深層次的挑戰。

他憂心表示,當人們習慣向這類模型詢問各種疑問,如果大家都使用中國開發的「文心一言」等中文模型,中國將有可能掌握臺灣民眾的思想動態,甚至提供引導性的資訊,這無疑將構成國家安全威脅。

發展主權AI的必要性

李育杰列舉多個必須發展主權AI的理由。首先,避免機密外洩:不能將所有問題都詢問奠基在公有雲服務的AI,因為這可能會洩露個人或機構的秘密資訊。例如,韓國三星的工程師使用ChatGPT導致國防和商業機密外洩的事件,就是警惕。

其次,克服數據偏見: OpenAI等國際AI模型主要依賴網路爬蟲收集全球資料,臺灣的數據量相較於中國等大型經濟體必然處於劣勢,即使OpenAI公平地蒐集中文資料,模型也容易偏向中國的語料,導致輸出結果不符合臺灣的價值觀和標準。

第三,建立可信賴的對話引擎:臺灣需要能夠產出符合臺灣價值觀、標準和法律的回應的AI模型,同時能夠保護使用者的商業機密和客戶資料。

第四,培養本土人才:臺灣缺乏處理大型生成式AI模型的經驗和人才,需要透過國家級的計畫,讓學界和有興趣的研究者能夠接觸到相關技術。

第五,滿足本土需求:透過自主研發,可以更好地滿足臺灣在特定領域的AI需求,並提升本土AI技術的水平。

第六,回饋國際社群:如果發展成功,臺灣的模型甚至有可能將其獨特的專業知識回饋Meta、OpenAI、Google等國際AI巨頭。李育杰特別提到DeepSeek的MOE(Mixture of Experts)技術,他認為,未來大型對話模型如果能包含臺灣的專家模型,將具有重要意義。

另外,李育杰以一個具體的例子來說明「主權AI」的重要性。他引用世界經濟論壇(WEF)的報告,總結實現「主權AI」的六大戰略支柱,包括:數位基礎設施;勞動力發展;研究、開發與創新;監理與倫理道德架構;刺激AI產業發展;國際合作。

李育杰表示,這六大戰略支柱為臺灣發展人工智慧,提供了清晰的發展方向和行動指南,除了經濟發展,他引述WEF世界經濟論壇的觀點指出,主權AI本質上是為了透過戰略性運用人工智慧,強化國家保護與推動自身利益的能力。

例如,人工智慧在軍事領域的應用已經日益增長,未來勢必將持續加速發展;同時,人工智慧與資安的交叉領域,也正成為全球與各國內部的優先要務。

打造臺灣專屬的大語言模型TAIDE

李育杰表示,「資安即國安」,四月份公開的《國家資通安全戰略 2025》也特別提及「人工智慧應用與安全」將是未來重要的四個支柱之一。

在各方努力下,臺灣自主研發的「可信任生成式AI發展先期計畫TAIDE」(Trustworthy AI Dialogue Engine)取得顯著進展。李育杰透露,TAIDE是基於Meta的Llama II模型進行深度開發。

他坦言,雖然Meta在2024年4月19日發布更先進的Llama III模型,但TAIDE團隊從Llama II的基礎模型開始,紮實地進行了持續預訓練(Continuous Fine-tuning Pre-training)、持續微調(Continuous Fine-tuning)以及基於人類回饋的強化學習(Human Reinforcement Learning、Human Feedback)。因此,儘管Meta擁有龐大的GPU資源(24,000個GPU),TAIDE團隊僅憑藉72個H100 GPU,仍然在4月29日推出以Llama III為核心的TAIDE模型。

李育杰強調,TAIDE的發展模式是利用既有的Foundation Model再進行自主開發。模型發布後,臺灣社群展現強大的活力,許多人自發製作了安裝教學等資源,推廣TAIDE的使用。

他表示,TAIDE團隊的初衷,是希望提供一個能夠在本地端使用的AI模型,讓使用者不必將敏感資料傳到OpenAI等外部服務。例如,高雄大學的系友及其團隊開發的Kuwa AI,正致力於將TAIDE模型壓縮,使其能夠在資源有限的環境,甚至在Android系統上運行,這對於需要在敏感環境中使用AI的場景至關重要。

大型語言模型在語言學習方面展現出巨大的潛力,李育杰展示了兩本書作為例證,一本是韓國人利用ChatGPT作為韓語老師教授英文的翻譯作品,另一本是臺南大學李健興教授利用ChatGPT和TAIDE開發的臺語和客語學習工具「臺英會虛擬機器人」,旨在幫助不同年齡層的人學習語言。他提到,這是他第一次看到AI能夠串聯祖孫三代進行語言學習。

進一步思考主權AI的範疇,李育杰認為,不應僅限於大型語言模型,社群媒體平臺及其言論審查機制也應納入考量。他引述世界經濟論壇的觀點,強調數位基礎建設對於非洲等地區發展主權AI的重要性,也提到人才培育、研發創新、法規制定,以及國際合作等關鍵要素。他並希望未來能利用AI,進行更多領域的創新應用。

使用哪一款AI與國家安全息息相關

談及AI在國家安全領域的應用,李育杰表示,各界已普遍認識到AI在發展資安工具和國防軍事用途武器方面的潛力。國外已有許多成功案例,利用AI提升國防能力,例如發展無人機和水下無人載具等。他也鼓勵臺灣優秀的AI人才,可以將國防相關應用納入其研究發展或新創事業的方向,利用AI在資安和國防防禦領域保護國家安全。

李育杰指出,臺灣花費近一年的時間完成了《國家資通安全戰略 2025》,其中,四個主要主題(也是四大支柱),包括:全社會防衛韌性、國土防衛與關鍵基礎設施安全、供應鏈安全以及新興科技(包括AI安全)。

他指出,「全社會防衛韌性」這個概念強調全民對資安的意識,透過人才培育和公私協力,共同提升國家的整體防禦能力。

什麼是「國土防衛與關鍵基礎設施安全」?李育杰舉例,當網路節點等基礎設施遭受攻擊可能導致國家陷入混亂甚至經濟停擺的嚴重後果,並引用Netflix影集《零日風暴(Zero Day)》作為警示,他也轉述美國前任國家安全顧問的觀點表示,關鍵基礎設施遭受嚴重侵犯,往往是戰爭的開端。

至於「供應鏈安全」則是未來需要高度重視的領域,李育表示,這也會納入資安署的《第七期資通安全發展方案》,政府會透過「共同供應契約」採購各種軟硬體服務,這樣的作法對於機關採購有一定的方便性,但也存在潛在的安全風險,因為敵對勢力可以輕易掌握政府使用的產品和服務。

對此,他認為,相關單位需要加強原始碼檢測和漏洞鑑定;供應商自身的資安,也是供應鏈安全的重要一環,像是去年9月發生黎巴嫩真主黨使用的BB Call、遭到遠端引爆的攻擊事件,就是一個警示。

新興科技安全包括AI安全在內,而如何將AI應用於網路安全,以及如何應對AI本身帶來的安全問題,李育杰特別提醒,生成式AI的風險早在2019年就已存在。

他指出,當時GPT-2發布後,就有人質疑其潛在的危險性。《麻省理工科技評論》曾展示一段由人撰寫和機器生成的文字,其中就已經展現出:AI可能被用於散播假訊息,引發社會動盪。

此外,國際地質學家也對某些AI模型表示擔憂,例如發現某模型的核心條款與阿里巴巴推出的AI規定一致,這可能導致,一旦詢問涉及中國的敏感問題時,就會出現偏頗的回答。

李育杰舉例,當詢問某模型關於中國陝西礦業公司在迦納的採礦行動時,模型會以「不知道」回應,但詢問OpenAI的ChatGPT,則能提供更詳細的資訊,這顯示:不同AI模型在處理敏感資訊時,存在明顯差異。

從DeepSeek案例分析境外AI的潛在威脅

今年農曆春節期間,中國杭州一家公司推出的AI模型「DeepSeek」引起廣泛關注,甚至一度導致NVIDIA股價下跌。DeepSeek以其低成本和高性能著稱,被認為可能改變AI訓練的遊戲規則。

然而,李育杰對DeepSeek表示高度擔憂,因為政府或關鍵單位若使用DeepSeek,可能存在洩露敏感資訊的風險。所幸臺灣政府有明確規定,禁止使用可能危害國家安全的資通安全相關產品,DeepSeek的AI就涵蓋在其中。

他表示,根據中國的《國家情報法》,所有中國企業都有義務與政府分享資訊,若臺灣政府機構與國防單位使用DeepSeek,可能會因為AI將機密資訊上傳至中國,而產生嚴重的國安漏洞。

李育杰進一步指出,境外AI模型也可能被用於資訊操作,影響臺灣輿論,損害臺灣的民主機制。他說,大型語言模型是製造假新聞的利器,且DeepSeek必須遵守中國的審查機制,可能在臺灣推動有利於中國的敘事,影響公共輿論,對臺灣的民主體制造成嚴重傷害。

臺灣在全球半導體與科技產業居於領先地位,李育杰也擔心,先前曾發生韓國三星公司因為不慎使用AI,而造成公司企業營業秘密與產業核心技術外洩,因此,臺灣業者若不慎使用DeepSeek,可能成為中國竊取臺灣產業技術與機密的管道。

此外,DeepSeek可能被駭客用來傳播惡意軟體或執行網路攻擊,甚至能迅速生成惡意程式,他舉例,韓國便已發現DeepSeek會將使用者資料轉傳至抖音,這是一種極不尋常的行為,也帶來對使用DeepSeek的隱憂。

他強調,如果缺乏嚴格的審查機制,境外AI模型可能會受到其本國法律和意識形態的影響,例如DeepSeek就必須遵守中國的社會主義核心價值觀,並可能提供在其他國家被視為不合適的內容。

更令人擔憂的是,李育杰認為,如果所有人都使用境外AI模型,長期下來,可能會潛移默化,接受其背後的價值觀和知識體系,例如將維基百科的內容視為理所當然。

行政院發布生成式AI參考指引,確保公務機密與資訊安全

針對AI發展可能帶來的倫理問題,行政院去年公布《行政院及所屬機關(構)使用生成式AI參考指引》,強調AI會犯錯、責任在人,以及使用AI時應考慮其適當性等原則。

參考指引中列出了十點規定,其中幾項重點包括:生成式AI產出之資訊,須由業務承辦人進行客觀且專業的最終判斷,不得取代其自主思維與創造力;為了確保機密資料的安全性,也規定行政機關「禁止使用生成式AI製作機密文書。」以及業務承辦人不得向生成式AI提供涉及公務,和應保密、個人及未經機關同意公開的資訊,亦不得詢問可能涉及機密業務或個人資料的問題。

但指引中也要求:行政機關應該要在封閉式的地端環境部署生成式AI模型,並在確認系統環境安全後,可依機密等級分級使用;各機關也不可完全信任生成式AI產出之資訊,不得以未經確認的內容,直接作為行政行為或公務決策的唯一依據。

指引中也明確表示:使用生成式AI作為輔助工具時,應適當揭露並應遵守資通安全、個人資料保護、著作權及相關資訊使用規定。該指引也強調,考量AI發展與資訊安全及國家安全息息相關,各機關在使用生成式AI時,應秉持負責任及可信賴的態度,並持續觀察全球AI發展趨勢與因應作為,滾動式修正參考指引。

為此,李育杰也推薦多明戈斯Pedro Domingos在2016年出版的《大演算》(The Master Algorithm)一書,而中國國家主席習近平在之前的新年賀詞影片中,書架上就出現《大演算》一書。

李育杰再次強調,語言是最有用的溝通工具,它承載著知識系統、文化和價值觀,並舉例提到臺灣和中國在線性代數的矩陣術語上的差異,說明知識系統的本土性至關重要。

最後,他再次引用黃仁勳的觀點,強調每個國家都需要擁有自己的人工智慧基礎設施,以掌握經濟潛力並保護自身文化。而臺灣正積極透過TAIDE計畫,建立屬於臺灣自己的AI模型,積累屬於自己的語料庫,提升高速運算能力,培養AI領域的專業人才,並在演算法的研發上持續投入。

李育杰強調,臺灣發展主權AI的關鍵要素:「主權AI =資料+算力+人才+演算法」,並指出「模型是一時的,資料是永久累積的,算力是必要的投資,人才要不斷地培養」。

面對生成式AI帶來的機遇與挑戰,臺灣政府與產學研界正攜手合作,以謹慎而積極的態度,打造可信任、自主可控的AI生態系,為臺灣的未來發展奠定堅實的基礎,並希望在全球主權AI的競賽中,努力走出自己的道路,確保國家安全,掌握發展的自主權。

 
 
 
 
 
 
 
 
 
 
 
 
 
 

熱門新聞

Advertisement