7月底Meta釋出Llama 3.1,針對這項眾所矚目的生成式AI模型,我們解讀Meta公司發布的技術文件,整理當中的硬體基礎架構組成,憑藉我們對企業級IT基礎架構相關技術的了解,一起讓更多人認識用來訓練生成式AI模型的超大規模運算環境
2024-08-16
| Llama 3 | Meta | 大語言模型 | AI基礎設施
【GPU是大型AI運算架構中最脆弱環節,自動化偵測與故障排除技術是確保維運關鍵】超大規模AI運算設施的維運挑戰
足夠的系統規模,只是執行Llama 3這類應用的必要門檻,而不能保證運算工作能順利進行,並獲得期望的成果,想要讓這類超大規模AI基礎設施充分發揮效益,還需要仔細的調校,並維持足夠的穩定性
2024-08-16
| Llama 3 | Meta | 大語言模型 | AI基礎設施
【2.4萬個GPU結合6千個CPU,打造當前全球最高規格AI運算環境】探索Meta Llama 3模型訓練的硬體基礎架構全貌
基於開放策略,Meta釋出當前炙手可熱的Llama 3大語言模型,也公開訓練這套模型的硬體基礎架構細節,使外界有機會瞭解這種超大規模AI運算設施的真實設置場景
2024-08-16
Meta發布財報,祖克柏宣稱Meta AI年底前將成為全球最多人使用的AI助理
儘管Meta持續擴大投資AI與Reality Labs,但依然創下134.6億美元的淨收入,成長73%
2024-08-01
| Segment Anything Model | SAM | 物件分割 | Meta
Meta釋出可用來分割影片物件的Segment Anything Model 2
Meta強調SAM 2模型可以分割圖像或影片中的任何物件,還能即時於影片中的所有畫面追蹤該物件
2024-07-30
| IT周報 | Mamba | 程式碼生成 | Meta | Llama 3.1 | 蘋果 | Transformer | Nvidia
AI趨勢周報第257期: Mistral AI用Mamba架構打造程式碼生成模型
Mistral AI用Mamba 2架構打造程式碼生成模型,表現比同規模的Transformer模型好;Hugging Face釋出小又強健的語言模型SmolLM;Meta開源Llama 3.1 405B;有效加速Transformer生成時間,蘋果推LazyLLM;Nvidia推出企業級模型客製化平臺AI Foundry
2024-07-26
Meta開源Llama 3.1 405B,強調開源才是AI的未來
Meta強調相較於GPT-4o與Claude Sonnet等封閉性模型,規模涵括80億到4千億個參數的Llama 3.1家族除了具備更好的成本與性能,模型的開放性也成為外界微調出小模型的最好選擇
2024-07-24
在利用消費者個資訓練AI模型的作法上,Meta決定不再配合愛爾蘭及英國隱私主管機關的要求進行調整,選擇直接在生成式AI服務版圖上捨棄歐盟市場
2024-07-18
Instagram負責人表示,雖然Threads爆紅後一度人氣衰退,但目前用戶數朝向穩定成長方向發展,他們也計畫要分割Threads與Instagram的帳戶相依關係
2024-07-04
| LLM Compiler | Meta | Code Llama | 編譯器 | 程式碼
Meta發表LLM Compiler,以最佳化程式碼生成及編譯器能力
以程式碼生成模型Code Llama衍生而成的LLM Compiler,可用來改善LLM所生成的程式碼品質,透過模擬編譯器的功能,預測哪些最佳化步驟能夠達到最佳的程式碼尺寸,或是將以已編譯的程式碼轉換回原本語言
2024-06-28










