| AI | 武漢肺炎 | Kaggle | 開放資料 | google | Neural Tangents | 黑盒子 | BERT | 模型評比 | 臺鐵 | 影像辨識 | Pixel 4 | IT周報
AI趨勢周報第124期:整合產官學各界資源,全球最大機器可讀的武漢肺炎資料集開源釋出
AI2攜手白宮、美國國衛院、微軟及其他組織,共同釋出武漢肺炎開放研究資料集(簡稱CORD-19),內含2萬9千多篇新冠病毒相關論文。Kaggle也同時舉辦CORD-19挑戰賽,要開發者以文字探勘從中找出洞察。另一方面,義大利博科尼大學發表BERTLang網站,提供特定語言的BERT模型和mBERT模型間的評比。Google發表JAX函式庫Neural Tangents,要來打開AI黑盒子。
2020-03-19
| 臉書 | BERT | 電腦視覺 | 自然語言 | 國發會 | 景氣 | AI科技基金 | 面試 | google | 語音轉文字 | 中原大學 | 智慧農業 | AI | IT周報
AI趨勢周報第115期:12合一!臉書AI研究院用一套ViLBERT模型,搞定不同類型資料集的ML訓練任務
臉書AI研究院日前聯手喬治亞理工學院、奧勒岡州立大學,用12個資料集訓練一套ViLBERT模型,不只可用來解決不同類型的電腦視覺與自然語言任務,參數還從30億個減少至2.7億個,準確度平均提升2分。另一方面,為更精準掌握景氣循環,國發會研擬開發一套景氣循環AI預警系統。此外,由國發會成率領民間團體成立的國家級投資公司台杉投資,明年計畫成立AI科技基金,同時要吸引國外AI技術團隊在臺成立研發中心。
2019-12-27
| AI | 華為 | BERT | NLP | google | RL | 量子電腦 | Deepmind | 語音生成 | GAN | TensorFlow 2.0 | IT周報
AI趨勢周報第104期:更輕更小!華為發表TinyBERT準確度不輸Google BERT
華為發表更輕更小的自然語言處理預訓練模型TinyBERT,比Google BERT小7倍,推論速度卻快上9.4倍。TinyBERT採用知識提煉(KD)和師生框架來改善Google BERT,利用小型學生網路來模仿大型老師網路行為,而KD則著重於Transformer提煉和兩階段學習框架,在大型文本語料庫和下游微調過的TinyBERT之間,增加一個通用TinyBERT。
2019-10-11






