AWS現在為機器學習模型與演算法服務Amazon SageMaker添加自動擴展服務,使用者不再需要靠推論來決定運算規模大小,現在透過Amazon CloudWatch監控模型實際流量負載,根據政策自動增減運算實例。

建立機器學習的應用並非易事,因為建立和訓練模型,並將其部署到產品環境,過程複雜不只需要專業技術,還要投注大量時間資源。AWS機器學習平臺產品經理Kumar Venkateswar表示,Amazon SageMaker目的在於簡化這個過程,讓使用者更簡單的管理機器學習應用。

在Amazon SageMaker上部署機器學習模型,除了不需顧慮基礎架構,像是作業系統或是框架的設定外,使用者可以在AWS EC2上部署資料科學常用的Jupyter Notebooks,以及在可用區域增加運算主機,這些優點都為開發者省了不少心力與時間。

在模型訓練階段,使用者仍需要自行推估運算的規模,指定數量以及對每個端點的實例類型,但如果推估量產生變化,使用者仍然可以在不中斷運算工作的情況下,手動擴展運算叢集的規模。

現在結合SageMaker console、AWS Auto Scaling API以及AWS SDK,Amazon SageMaker增加自動擴展功能,將讓訓練模型的工作更加自動化。自動擴展功能透過Amazon CloudWatch指標以及定義的策略,根據實際的工作負載量動態調整運算實例的數量。使用者可以根據不同的需求,設定不同的政策,SageMaker會以Amazon CloudWatch監控每個實體的運算量,調整資源符合使用者需求。

SageMaker會持續的監控資源的使用量,因此使用者可以把這個服務應用在產品階段,將自動擴展功能設定為成本優先政策,可以降低已部署模型的成本,因為此階段已不再需要維持大量的運算資源執行高負載運算。Amazon SageMaker可以根據使用者給的最高與最低流量,在這限制內最大程度的降低成本。

熱門新聞

Advertisement