| AR | GPU | 新聞 | 動畫 | 建模 | 虛擬棚

民視靠UE打造AR虛擬攝影棚技術架構大公開,今年大選觀測站3D新聞全靠它

民視視覺創意團隊6年來以不同遊戲引擎,製作出許多新聞3D動畫,比如2015年復興航空空難還原動畫,後來更導入工業機器手臂攝影機,結合3D動畫製作引擎中的虛擬攝影機,來打造電視AR虛擬棚,更用來製作2020選前觀測站節目。今年,民視也導入觸控螢幕,自行發展一套觸控系統,讓主持人可觸控啟動AR物件。

2020-10-09

| AI | Nvidia | 超級電腦 | GPU | 開發者套件 | IBM | 精神疾病

AI趨勢周報第145期:Nvidia AI基礎架構DGX SuperPOD正式上市,數周就能建置Pflops等級超級電腦

Nvidia在技術年會GCP上宣布企業用AI基礎架構DGX SuperPOD正式上市,可在數周內建置AI超級電腦。DGX SuperPOD叢集可由20至140個不等的獨立AI加速系統DGX A100組成,可提供至少100 petaflops運算效能,最高可擴充至700 petaflops。同時,Nvidia也瞄準專業工作者,推出48GB超大容量GPU RTX A6000和A40。

2020-10-07

| Nvidia | AI | GPU | 視訊會議

Nvidia推出雲端AI視訊串流平臺Maxine

Maxine使用人工智慧視訊壓縮技術,透過偵測人臉關鍵點,在另一端重建人臉動畫,藉此大幅降低資料傳輸量

2020-10-06

| Nvidia | 直播 | GPU | AI

Nvidia釋出AI去背和降噪的影音直播輔助程式

Nvidia Broadcast擴充套件,能夠利用GPU的張量核心執行人工智慧運算,即時移除人物背景以及消除噪音

2020-09-22

| 微軟 | GPU | TensorFlow | Windows | WSL

支援DirectX 12的GPU現也可用來加速TensorFlow運算

TensorFlow擴充套件TensorFlow-DirectML,可在使用DirectX 12 GPU的Windows或是WSL環境,加速TensorFlow工作負載運算

2020-09-10

| TensorFlow | OpenCL | GPU

TensorFlow採用OpenCL後端使GPU推理效能加倍

OpenCL的設計更適合用於各種計算加速器,因此以OpenCL後端處理行動裝置GPU推理工作負載,比OpenGL後端效能好上許多

2020-08-20

| Nvidia Ampere | GPU | Accelerating Computing | PCIe 4.0

Nvidia推PCIe介面卡A100 GPU,效能與SXM版本相當

在6月底舉行的歐洲國際超級電腦大會期間,Nvidia發表PCIe介面卡版本的A100 GPU,可適用於多款GPU伺服器

2020-07-15

| Nvidia | A100 | GPU

Nvidia A100推PCIe版本,今年內將有超過50款GPU系統推出

新增的PCIe版本,將使得更多伺服器業者推出多種Nvidia A100 GPU運算系統,從單一A100 GPU系統,到多達十個以上GPU的系統,滿足不同GPU加速運算的需求。

2020-06-22

| 微軟 | WSL | GPU

微軟更新WSL 2現可執行GPU機器學習運算

WSL加入對GPU的支援,因此開發者可以在WSL中使用GPU資源,加速機器學習運算

2020-06-20

| Nvidia | GPU | 視覺化 | google

Nvidia資料視覺化工具IndeX在Google雲端市集上架

IndeX在Google雲端市集上架,可以借助雲端GPU運算資源,即時視覺化大規模資料,並且部署成渲染伺服器

2020-05-27

| AI | 路徑尋找 | 機器人 | GPU | 模型訓練 | AWS | YAML | AI晶片 | IT周報

AI趨勢周報第132期:物流倉庫千臺機器人行走不碰撞!Amazon發表路徑尋找AI框架

Amazon日前發表多代理路徑尋找(MAPF)框架,可讓1,000臺機器人到達不斷改變的目的地,而且不會相撞;Google改進資料回音(Data echoing)方法,榨乾GPU閒置時間,來提高模型訓練速度達3倍;美國大型醫學中心利用AI動態預測所需的醫療資源,來制定計畫。

2020-05-21

| Nvidia | Databricks | Spark | GPU

Nvidia與Databricks合作,讓Spark可用GPU加速模型訓練

在即將釋出的Spark 3.0將原生支援Nvidia GPU,可大幅提升ETL和模型訓練的執行效能

2020-05-17