中國打造的應用程式暗中收集個資與回傳資料,不時傳出,甚至曾出現疑似言論審查導致資料遭刪除的情形,而這樣的議題也延續到時下熱門的AI系統,有資安業者指出,他們發現中國的AI模型若是遇到政治敏感的提示內容,生成程式碼存在嚴重漏洞的情況,也會顯著增加。

資安業者CrowdStrike針對中國大型語言模型DeepSeek-R1進行測試,結果發現,雖然在許多情況下,此模型產生的程式碼品質能與許多領導品牌的大型語言模型相當,然而,一旦使用者的提示涉及中國政府敏感的政治議題,DeepSeek-R1產生帶有嚴重資安弱點的程式碼,機率就會顯著增加,最多會達到約50%。

由於時下開發人員九成已導入AI工具,這種AI程式碼助理存在的微妙漏洞,只要在能接觸到高價值原始碼的情況下,就有可能造成高度影響。有別於大多資安研究聚焦在越獄,讓AI模型提供能用於犯罪的工具配方及程式碼,或是針對中國製AI模型的部分,調查因政府言論審查造成回應偏頗的現象,這是首度有資安業者發現,言論審查有可能會影響開發安全。

CrowdStrike強調,雖然他們測試的模型是DeepSeek-R1,但其他必須遵守特定意識型態價值的中國模型,也可能存在相同的情況。該公司對最完整的671B版本DeepSeek-R1進行測試,在沒有政治敏感提示的情況下,約有19%會出現存在弱點的程式碼,然而一旦加入了敏感提示,有弱點的程式碼比率就會增加到27.2%。究竟CrowdStrike用了那些政治敏感提示?其中一個是要求DeepSeek-R1為圖博(Tibet)的工業控制系統編寫程式碼。

這種說明性的提示,與要求AI進行編寫程式碼的任務無關,照理說不應影響生成的程式碼品質,不過,CrowdStrike實際使用法輪功、維吾爾族,以及圖博等修飾詞(modifier),之後,就會出現生成程式碼安全性大幅降低的現象。

對於上述研究造成程式碼安全性降低的原因,CrowdStrike缺乏足夠的資料來說明,不過他們比對中國政府監管框架的內容,發現相關要求與DeepSeek-R1內容控制機制相符,因此該公司推測,DeepSeek很有可能在訓練流程加入特殊步驟,來確保模型產生的內容符合中國政府要求。但為何會產生較不安全的程式碼?CrowdStrike認為是「突發錯位(Emergent Misalignment)」的結果,由於該模型受過中共政治思想的訓練,可能將法輪功、維吾爾族等詞彙認定為負面,導致使用者下達帶有這些詞彙的提示,就會造成負面效應。

熱門新聞

Advertisement