圖片來源: 

Perplexity

重點新聞(0306~0312)

 Perplexity     AI代理     Personal Computer  

Perplexity喊出萬物皆電腦,推Personal Computer讓AI替你24小時工作

AI搜尋公司Perplexity近日提出萬物皆電腦的新願景,執行長Aravind Srinivas表示,當AI具備高準確率搜尋、多模型調度,以及代理式上網能力時,AI本身就能成為一臺「電腦」,直接理解目標並完成任務。

其中最受關注的是Personal Computer,這是一套在Mac mini桌上型電腦上執行的AI系統,持續連接本地應用與Perplexity伺服器,充當使用者的「數位代理」,可跨工具整理檔案、執行任務,即使人不在電腦前,它也能持續工作。系統還有權限審核和Kill Switch功能,確保敏感操作都經使用者核准。

Perplexity也同時推出Computer for Enterprise服務,可透過App連接器,直接查詢Snowflake、Salesforce等數百個企業工具。公司表示,內部測試顯示,該系統在4週內完成人類3.25年的工作量,節省約160萬美元人力成本。

此外,Perplexity還發布Search、Agent、Embeddings、Sandbox等四大API,整合了Statista、PitchBook等專業資料來源,讓AI從回答問題進化到「直接完成工作」。(詳全文)

 Nvidia     AI代理     MoE  

Nvidia推出專為AI代理打造的大模型

Nvidia最近發布一款開放模型Nemotron 3 Super,主打支援日益複雜的AI代理應用。這款模型具1,200億參數,但在推論時只啟用120億活躍參數,來降低運算成本、提升效率。

Nemotron 3 Super採混合式 + MoE架構,混合式是指模型採用Mamba層的高效率記憶能力,以及Transformer層的推理能力,讓資料吞吐量比前一代最高提高5倍。模型同時提供100萬Token的上下文窗口,讓AI代理在處理長任務時,能保留完整工作流程,例如一次分析大型程式碼庫或數千頁財務報告。

在Blackwell GPU平臺上,模型可以NVFP4精度運行,推論速度可達Hopper平臺FP8運算的4倍,還能維持相同準確度。Nvidia也開放模型權重和研究方法,並公開超過10兆Token的訓練資料流程,讓開發者可在地端或雲端環境部署、客製化。(詳全文)

  OpenAI     AI代理     LLM  

OpenAI元老開源Autoresearch:讓AI代理自己跑實驗、幫LLM找最佳設定

OpenAI共同創辦人之一的Andrej Karpathy最近在GitHub開源新專案 Autoresearch,想把大型語言模型(LLM)研究中,那些繁瑣的調參數和實驗流程,都交給AI代理自動完成。

這套框架做得很精簡,核心只有三個檔案:負責資料與環境準備的prepare.py、唯一會被AI修改的訓練程式train.py,以及由人類撰寫研究目標的program.md。使用者只要用文字說明任務,AI代理就會自行修改模型架構、調整超參數或訓練設定,接著啟動實驗並檢查結果。

為了比較不同實驗,Karpathy把每次訓練都限制在5分鐘內完成。他實測讓AI代理持續跑2天、完成276次實驗,還真的替nanochat模型抓出29個優化點,甚至還讓模型達到GPT-2水準的訓練時間,從2.02小時縮短到1.8小時。目前Autoresearch主要在單張Nvidia GPU(如H100)環境測試,也點出一個有趣的趨勢:未來AI研究人員可能不用天天改程式,而是負責指導AI做實驗。(詳全文)

  聯發創新基地    Breeze 3      臺語  

聯發科Breeze 3新模型用1萬小時合成語料,解決臺語變調和在地防護難題

聯發創新基地(MediaTek Research)日前發表MR Breeze 3系列模型,透過大規模、高品質的資料工程,解決臺語語音技術長期面臨的變調複雜、書寫不一以及語料匱乏等挑戰。進一步來說,團隊這次推出3款模型,首先是語音辨識模型Breeze ASR 26, 它基於OpenAI Whisper架構,以1萬小時的臺語合成語音訓練而成。與傳統朗讀式語料不同,這批訓練資料模擬了大量國臺語夾雜、自然語速和口語用詞,大幅提升模型處理臺灣日常晶晶體對話的準確度。

另一款模型是專攻語音合成的BreezyVoice 26,採CosyVoice 2架構,可掌握臺語特有的聲調變化與節奏。模型在人工評測(MOS)中獲得5分滿分,也就是說,它產出的語音已非常接近真人發音的自然度。第三款模型是把關內容安全的Breeze Guard 26,它以Breeze 2 8B模型為基礎,額外針對1.2萬筆臺灣特有的風險情境(如在地詐騙話術、歧視性言論、政治操弄)進行微調。相較於國際通用安全模型,Breeze Guard 26更能精準判別繁體中文語境下的有害內容。

另一方面,為推動在地AI生態系,聯發科還同步發表了臺語語音評測基準Breeze Taigi Benchmark、臺灣安全評測基準TS-Bench,並開源ASR和Guard模型。目前,所有模型功能都已整合至Breeze AI LINE官方帳號,使用者可直接體驗AI聽、說臺語的能力。(詳全文)

  Meta     AI晶片     生成式AI  

Meta加速自研AI晶片布局,要把迭代周期縮短到6個月

Meta最近公開自研AI晶片MTIA的發展藍圖,為因應生成式AI的龐大算力需求,他們決定將晶片研發周期,從傳統的2年縮短到6個月,從目前的MTIA 300晶片到2027年要大規模部署的MTIA 500開始。

MTIA系列晶片由Meta和Broadcom合作開發,主要用於AI模型訓練與推論。Meta表示,目前已有數十萬顆MTIA晶片部署於資料中心,來支援社群內容推薦和廣告排序等演算法,部分大型語言模型(LLM)也已開始在MTIA平臺上測試。

新一代MTIA晶片將大幅提升AI運算能力。Meta表示,從MTIA 300到MTIA 500,高頻寬記憶體(HBM)頻寬將提升4.5倍、算力提升25倍,來強化LLM推論效能。同時,晶片也支援MX4、MX8等低精度運算格式,來提高推論吞吐量。Meta也說,AI模型演進的速度,已超過傳統晶片開發周期,因此採用模組化Chiplet設計,來加快晶片迭代。未來除了自研MTIA,Meta也將搭配GPU等外部晶片,打造多元的AI運算基礎設施。(詳全文)

  Nvidia     能源     AI  

黃仁勳:AI時代,底層關鍵其實是能源

在GTC大會前夕,Nvidia執行長黃仁勳提出一個新比喻:AI就像一塊「五層蛋糕」,從下到上依序是能源、晶片、基礎設施、模型與應用,而最底層的關鍵其實是電力。他指出,運算世界正從「預先寫好的軟體」轉向「即時生成的智慧」。過去,電腦只是依照程式執行查詢,如今AI能理解圖片、語音與文字並即時推理,也讓整個運算架構必須重新設計。

在這個新堆疊中,能源是最現實的限制。每生成一個AI Token,本質都是電力轉換成運算與熱能管理,因此能源供應將直接限制AI智慧的產出規模。其上則是GPU與HBM等晶片、AI資料中心等基礎設施,再到模型與應用。

黃仁勳也認為,AI不一定會減少工作。隨著AI提高生產力,企業反而需要更多人,包括建設AI資料中心的電工、管線工程師與網路技術人員等。(詳全文)

  xAI     AI代理     Macrohard  

馬斯克新AI計畫Macrohard曝光

xAI創辦人馬斯克最近在X發文,透露一項名為Macrohard的新AI計畫構想。這是一個結合xAI和Tesla技術的系統,架構上由Grok負責理解世界與決策,就像是導航系統;而Digital Optimus則負責操作電腦,例如分析螢幕畫面、控制鍵盤和滑鼠。

馬斯克形容,Grok就像人類思維中的「思考系統」,負責推理、決策;Digital Optimus則像「直覺系統」,負責即時行動。Macrohard系統會持續分析使用者最近5秒的螢幕畫面和操作紀錄,再決定下一步操作。

硬體方面,該系統預計在Tesla自家的AI4晶片(約650美元) 上執行,只有在必要時,才使用xAI比較昂貴的Nvidia GPU資源。馬斯克認為,若這類AI代理成熟,未來可能模擬企業內的各種工作流程。(詳全文)

圖片來源/Nvidia、Andrej Karpathy、聯發創新基地、Meta

  AI近期新聞 

1. Anthropic成立研究院,要解決AI可能帶來的社會風險

2. Canva推出新功能Magic Layers,使用者可編輯AI生成的圖片

資料來源:iThome整理,2026年3月

 

熱門新聞

Advertisement