在 DeepSeek 掀起的這輪開源模型浪潮中,有一個開源王者似乎被遺忘了——Meta AI。
今天凌晨, Meta 突然掏出了 Llama 4。
Llama 4 全系採用混合專家(MoE)架構,目前最強的開源多模態大模型
劃重點:文本、圖像與影片的全能選手
Llama 4 Scout
面向文檔摘要與大型代碼庫推理任務,專為高效資訊提取與複雜邏輯推理打造。
共有 1090 億參數,170 億激活參數量
上下文長度 1000 萬 tokens(目前行業最長)
Llama 4 Maverick
以通用助手與聊天應用為核心,具備頂級的多語言支持與編程能力。
共有 4000 億參數,170 億激活參數量,分布於 128個專家模塊
在大模型競技場(Arena)中突破 1400 分,總排名第二;其中開放模型超越 DeepSeek V3 排名第一。
下載
https://www.llama.com/llama-downloads/
值得一提的是,Llama 4 Scout 使用 Int4 量化就可以在單個 H100 GPU 上運行,Llama 4 Maverick 則可以直接在 H100 主機上運行。
Llama 4 Behemoth(預覽)
未來最強大的 AI 模型之一,具備令人矚目的超大規模參數架構。
2880 億激活參數量,總參數 2 萬億(消費級根本跑不動)
目標:在多模態處理與推理能力上實現突破
這麼龐大的模型訓練需要巨量計算資源和時間,據悉在推理和數學任務等技術基準上仍未達預期。
APPSO 發現,這次的發布多少有些趕鴨子上架,2 萬億參數的性能猛獸 Llama 4 Behemoth 還是期貨,可見在耗費巨額資金訓練後依然不夠競爭力。
年初曾有消息稱 DeepSeek 讓 Meta AI 團隊陷入恐慌:
「當生成式 AI 組織中的每個高管薪資都比訓練整個 DeepSeek-V3 的成本還要高,而我們有好幾十個這樣的高管,他們要如何面對高層?」
開源模型已經展現出匹敵 OpenAI 等閉源模型的能力,但 Meta 的開源王者地位開始動搖(別忘了還有 Qwen),今年的開源模型競爭逐漸白熱化。
DeepSeek 前兩天悄悄發布了新論文,或許 R2 已經在路上。




Llama-4 doesn't disappoint! My notes:
— Jim Fan (@DrJimFan) April 5, 2025
- Ease of deployment is now a more important OSS feature than sheer size. There's emphasis that Llama 4 Scout can run on a single H100, as opposed to Llama-3-401B, which was powerful but ultimately had lesser adoption. Mixture of Expert is a… pic.twitter.com/Z6kpWr6375
