吳恩達表示,他通常建議自己的MLOps團隊,在各ML生命周期做好資料品質控管,不只省麻煩,還能縮短專案完成時間。

重點新聞(0716~0722)

  吳恩達      資料品質    MLOps  

吳恩達:做好ML各周期的資料品質控管,不只省麻煩還能快2倍完成專案

吳恩達在一場AI論壇上指出,幾年前,ML社群在乎的是建模、調整超參數或選擇正確的架構,但現在,產業AI能力大躍進,DevOps在ML生產流程的重要性也隨之浮現,不少企業也出現MLOps人才需求。

就模型維運來說,ML指標可用來監控模型表現,但ML模型投入生產時,很多因素會影響模型效能,比如組織業務的擴張(如從100萬張信用卡擴展到10億張),這時就需要MLOps來輔助。吳恩達指出,MLOps至今就像一個新興學科,還未有完整的定義。一些企業開始找尋或培養內部MLOps人才時,多半也沒有一套標準可參考。

但他分享自身經驗,他帶自己MLOps團隊時,會提出一個準則,要求團隊確保在所有ML生命周期中,資料品質必須是好的。這些周期包括最初始的專案範圍界定、初始資料收集和定義、模型訓練,以及模型部署、監控、維運,特別是後續模型表現不佳時的資料改善。他表示,MLOps團隊可藉助不同工具和準則,來確保連續性的高品質資料,做到這一點,就能解決很多問題,甚至專案還能能快兩倍完成,「甚至更快,只要你做好資料品質控管這件事。」(詳全文)

 

 

MLOps     GitHub     模型維運  

不知道從何下手?GitHub一款熱門MLOps專案手把手教你做

 MLOps掌管機器學習模型生命周期,不僅讓資料科學家更了解資料變化,也讓營運團隊時時掌握業務變化。最近,GitHub上一個MLOps專案:Made with ML開始受到關注,它提供免費的MLOps學習資源和程式碼,主打直覺性第一、實際案例應用,要讓開發者摸透生產級的MLOps概念和實作。

這個專案由Goku Mohandas開發,他曾幫蘋果開發多個大型機器學習系統,也替資源受限的新創開發規模較小的AI系統。他解釋,開發者很容易在網路上,找到一堆生產級ML應用和MLOps相關的文章,但要了解這些概念,必須親手實作才行。可是,受限於專案規模、昂貴的工具和專屬內容,一般人很難得知機器學習產線的內部作業原理。而Made with ML提供這類資源,供開發者參考。

再來,這個專案強調直覺第一,也就是先從生產角度來分析機器學習系統的概念,而非從程式碼講起。他的Made with ML專案100%免費,目的是要「分享自己一路上學到經的MLOps通則經驗。」(詳全文)

  Julia     程式語言     製藥  

AZ、莫德納和Google等上萬家企業在用的程式語言Julia獲2,400萬美元A輪融資

由程式語言Julia核心團隊成立的軟體公司Julia Computing,日前獲得2,400萬美元的A輪融資,將用來改善旗下Julia生態系和高效能雲平臺JuliaHub,要讓資料科學家更快更輕鬆用JuliaHub來開發、部署和擴展Julia模型和程式。

Julia由MIT團隊開發,2012年開源,目前已有2,900多萬次下載量,也獲得全球1萬多家企業使用,像是Google、AZ、莫德納、輝瑞、Intell、NASA、美國聯邦儲蓄銀行等大型企業。Julia當初的設計,是要整合C、C++等高效能語言和Python這類適合編寫複雜程式的語言。一般來說,開發模型會經歷兩個階段,首先是用高階程式語言(如Python、Matlab或R)來進行測試、建模、設計原型,再用速度較快的低階語言(如C或C++)來重寫,進行生產部署和擴展,而Julia可解決這個「兩階段」問題。

不過,雖然MIT的開發目標明確,但2018年才釋出Julia 1.0版,過程中也歷經不少重大修復的陣痛期。但在1.0版問世後,情況改善許多。

在Julia的演進過程中,它的核心開發團隊在2015年成立Julia Computing,要把Julia打造為適合製藥、金融、高效能運算和能源等領域的精簡化程式碼。團隊在這幾年累積不少成果,比如與輝瑞共同模擬新藥、與AZ打造毒性預測AI,也與歐洲保險大廠Aviva解決合規問題、與思科打造ML資安方案,最近也往半導體領域擴張。接下來,他們要專注改善JuliaHub平臺,加速模型開發、部署和擴展。(詳全文)

  Google    照片解析度       擴散模型  

Google用擴散模型強化照片解析度,老照片也能很清晰

Google研究人員發表一套圖像生成新方法,打破傳統擴散模型合成圖像品質的限制,結合了反覆精細改進(SR3)演算法和串連擴散模型(CDM)的類型條件合成模型,讓生成圖像的品質大勝目前所有方法。

SR3是一種超解析度擴散模型,以低解析度作為輸入值,並從完全的雜訊中,建構出相對應的高解析度圖像。這個模型採用圖像破壞過程來訓練,也就是說,模型先慢慢添加雜訊到高解析度圖像中,直到完全都是雜訊,接著再逆轉過程,從純雜訊開始,輸入低解析度圖像,來引導模型逐步去除雜訊。

SR3能產生超高解析度圖像後,研究員將SR3用在類型條件圖像生成中。這種串連方法可將跨數個空間解析度的多生成模型鏈結在一起,再產生低解析度資料的擴散模型,僅接著一系列SR3高解析度擴散模型,來逐漸將生成圖像的解析度提高。總體結果,SR3所生成的超高解析度圖像,在人類評估超過了GAN,而CDM所生成的逼真樣本,在評估生成模型創建圖片品質的FID分數和分類準確度分數,都遠超過目前的頂尖方法BigGAN-deep和VQ-VAE-2。(詳全文)

  腦波溝通     語音神經義肢     UCSF  

腦波溝通成真,科學家用AI將腦波轉為文字

加州大學舊金山分校(UCSF)研究人員開發語音神經義肢(Speech Neuroprosthesis),能將大腦的訊號翻譯成為文字、顯示在螢幕上,讓重度癱瘓的人,也能用句子與其他人交流。研究人員表示,這次研究是第一次直接從癱瘓者的大腦活動,成功解碼出完整的單詞。該系統能以每分鐘18個字的速度,從大腦神經活動中解碼單詞,準確度可達93%。

過往溝通神經義肢的研究重點,是以拼字方式,用一個個字母拼湊出完整的文本,但UCSF的研究方法,是翻譯控制發聲系統肌肉的訊號,而不是以移動手臂來打字的大腦訊號。團隊研究UCSF癲癇患者,要從大腦訊號中找出語言相關活動的關係。

團隊找來代號為BRAVO1的受試者,BRAVO1是一位30多歲腦幹中風的男性,BRAVO1與研究人員合作,使用50個單字的字彙表,建立數百個日常句子。團隊在BRAVO1的語音運動皮層,植入高密度電極陣列,紀錄BRAVO1嘗試說出這50個單字時,說話語音皮層的大腦神經活動。接著,他們利用AI神經網路模型,來偵測BRAVO1嘗試說出的單詞。BRAVO1被要求嘗試說出由50個單字所組成的短句,系統會解析大腦活動,並且在螢幕上顯示短句。該系統每分鐘可以解碼18個單字,在應用類似打字校正等自動更正語言模型,準確率更可高達93%。(詳全文)

  Nvidia     Transformer     加速  

Nvidia釋出TensorRT 8,加速Transformer熱門模型推論速度

Nvidia推出最新AI軟體開發工具包TensorRT8,能加速搜尋引擎、廣告推薦、聊天機器人等AI應用。與前一版版本相比,TensorRT 8可縮短一半的語言查詢推理時間。

TensorRT是一個包含推理最佳化器和Runtime的高效能深度學習推理SDK,能提供低延遲和高吞吐量運算。TensorRT廣泛支援各個產業,像是醫療、金融服務和製造業等。Nvidia指出,採用TensorRT的應用程式,推理速度比純CPU平臺快了40倍,而且,TensorRT 8還提供為Transformer模型提供最佳化。

進一步來說,TensorRT 8加速所有Transformer模型的對話式AI,推理時間是TensorRT 7的一半,使用A100 GPU運算,執行具有3.4億個參數的語言模型BERT-Large,其推理延遲能降低到僅剩1.2毫秒。(詳全文)

 

 

圖片來源/Deeplearning.ai、Google、UCSF、Nvidia

 AI趨勢近期新聞 

1. Python擴充套件加入除錯器新功能,還簡化根目錄配置

2. 破解生物學界50年折疊蛋白難題,DeepMind開源模型AlphaFold 2

3. 臉書腦機介面讀心術成真,能將意念轉化為文字但卻宣布不做了

資料來源:iThome整理,2021年7月


熱門新聞

Advertisement