圖片來源: 

機器學習技術已經逐漸被企業普遍應用,而機器學習所產生的碳排量,也開始成為關注的重點,Google在IEEE Computer所發表的機器學習碳足跡論文,透過準確的資料來評估機器學習的實際碳排量,並且提出4Ms原則,可降低使用能源100倍,減少碳排放量1,000倍,Google運用這些最佳實踐,將機器學習所占的總能源使用量,壓低在15%以下。

4Ms原則分別是模型(Model)、機器(Machine)、機械化(Mechanization)以及地圖最佳化(Map Optimization)。Google指出,選擇使用高效的機器學習模型架構,像是稀疏模型,可在提高機器學習品質的同時,還能夠降低3倍到10倍計算量。而機器指的是,與通用處理機器相比,使用針對機器學習訓練最佳化的處理器與系統,能夠將效能提高至2倍到5倍。

機械化的配置,讓資料中心的效率比企業本地端配置要高上不少,使用雲端運算可減少能源使用,碳排放量減少1.4倍到2倍,Google解釋,雲端資料中心是專為上萬臺伺服器設計的倉儲,因此可以達到非常好的電量使用效率(PUE),而本地端資料中心通常較老舊,規模也較小,無法攤銷新的節能冷卻和配電系統成本。

此外,地圖最佳化則是雲端可讓用戶選擇使用能源最乾淨的位置,進而將總碳足跡減少5倍到10倍,Google也解釋,不用擔心地圖最佳化會使得最環保的雲端地區,快速達到最大容量,用戶對高效能資料中心的需求,反而會驅動綠色資料中心設計和部署的進步。

結合這四種做法,可以使企業減少能源消耗達100倍,更可以降低碳排放量1,000倍。Google的總能源使用量每年都增加,而機器學習工作負載,和每次訓練執行的計算量也都迅速成長,但Google表示,運用這4Ms原則,很大程度彌補增加的負載,從資料顯示,在過去三年,每年機器學習訓練和推理,僅占Google總能源使用量的10%到15%,推理和訓練的比例大概是3:2。

Google使用Transformer模型作為例子,說明符合4Ms原則的機器學習運算,可大幅降低能源消耗和碳排放量。Google引用其他研究,對在Nvidia P100 GPU訓練Transformer模型的能耗估算作為基準,使用Google最近發布的Primer模型,能以低4倍計算量達到相同精確度,當使用新一代機器學習硬體TPUv4進行訓練,會比使用P100改進14倍的能耗,加上高效雲端中心比普通資料中心能耗效率高1.4倍,此外,使用低碳能源的資料中心,又可再減少9倍碳足跡,進而在4年內總共減少747倍碳足跡。

熱門新聞

Advertisement