宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

谷歌發布Gemma 4開源AI模型,轉向Apache 2.0許可證

2026年04月03日 首頁 » 熱門科技

谷歌的Gemini AI模型在過去一年中取得了巨大進步,但用戶只能按照谷歌的條款使用Gemini。該公司的Gemma開放權重模型提供了更多自由度,但一年多前發布的Gemma 3已經有些過時。從今天開始,開發者可以開始使用Gemma 4,該模型提供四種針對本地使用優化的規格。谷歌也認識到開發者對AI許可證的不滿,因此放棄了定製的Gemma許可證。

與過去版本的開放權重模型一樣,谷歌設計Gemma 4可在本地機器上使用。當然,這可能意味著很多情況。兩個大型Gemma變體——26B專家混合模型和31B稠密模型,設計為在單個80GB英偉達谷歌發布Gemma4開源AI模型轉向Apache20許可證H100 GPU上以bfloat16格式運行而無需量化。誠然,這是一個價值2萬美元的AI加速器,但仍然是本地硬體。如果量化為低精度運行,這些大型模型將適合消費級GPU。

谷歌還聲稱專注於減少延遲,以真正利用Gemma的本地處理優勢。26B專家混合模型在推理模式下只激活其260億參數中的38億個,提供比同等規模模型更高的Token每秒處理速度。同時,31B稠密模型更注重質量而非速度,但谷歌期望開發者針對特定用途進行微調。

另外兩個Gemma 4模型——高效2B(E2B)和高效4B(E4B),針對移動設備。這些選項設計為在推理過程中保持低記憶體使用,以有效的20億或40億參數運行。谷歌表示,Pixel團隊與高通和聯發科密切合作,為智慧型手機、樹莓派和Jetson Nano等設備優化這些模型。它們不僅比Gemma 3使用更少的記憶體和電池,谷歌還宣稱這次實現了"近零延遲"。

更強大,更開放

據報告,所有新的Gemma 4模型都將讓Gemma 3望塵莫及——谷歌聲稱這些是您可以在本地硬體上運行的最強大模型。谷歌表示,Gemma 31B將在頂級開源AI模型Arena排行榜上排名第三,僅次於GLM-5和Kimi 2.5。然而,即使是最大的Gemma 4變體也只是這些模型規模的一小部分,理論上運行成本要低得多。

基於與谷歌Gemini 3閉源模型相同的底層技術,Gemma 4提供了改進的推理、數學和指令遵循能力。在過去一年中,AI也已轉向智能體工作流管理,Gemma 4已為這一變化做好準備,支持原生函數調用、結構化JSON輸出以及常用工具和API的原生指令。

代碼生成也正在成為生成式AI的核心應用,谷歌表示Gemma 4也針對此進行了優化。您可以使用任何數量的AI系統生成合格的代碼,但像Gemini Pro和Claude Code這樣的強大表現者都是雲服務。

谷歌表示,在離線環境中,如果您有運行較大變體的硬體,Gemma 4可以為您提供同樣高質量的代碼。同樣,谷歌表示Gemma 4在處理視覺輸入方面更出色,使OCR和圖表理解等任務在本地系統上更加可靠。高效的E2B和E4B模型還原生支持語音識別——Gemma 3系列也有這個功能,但谷歌似乎暗示Gemma 4在這方面表現更好。

Gemma 4支持140多種語言,無論您使用哪種語言,Gemma 4都可以處理大量文字。邊緣模型的上下文窗口現在為128k Token,26B和31B模型獲得256k Token。對於本地模型來說這很不錯,但基於雲的Gemini模型更慷慨,擁有100萬Token的上下文。

所有聲稱的性能提升都很不錯,但許可證調整可能是Gemma最重要的變化。谷歌開放模型的以前版本採用定製的谷歌許可證,許多開發者認為過於嚴格。Gemma 3許可證有嚴格的禁用政策,谷歌可以單方面更新,並要求開發者在所有基於Gemma的項目中執行谷歌的規則。它甚至可能被解讀為將許可證轉移到使用Gemma產生的合成數據創建的其他AI模型。這使得許多開發者對使用谷歌開放模型構建項目感到擔憂。

相比之下,Apache 2.0許可證更加寬鬆,沒有過度的使用條款或商業限制。開發者熟悉並認可Apache許可證,谷歌不能在未來某天就決定許可證的工作方式不同。谷歌相信,以這種方式給開發者更多對其數據和部署計劃的控制權,將鼓勵他們在更多項目中使用Gemma,並擴展該公司堅持稱為"Gemmaverse"的生態系統。

新Nano即將到來

E2B和E4B的發布也顯示了谷歌在智慧型手機AI方面的發展方向。谷歌Pixel和其他一些手機運行名為Gemini Nano的本地AI模型。這就是這些安卓手機如何檢測電話和簡訊詐騙、總結筆記或創建通話摘要而無需將數據發送到雲端。谷歌代表指出,Gemini Nano一直來源於Gemma模型,但這對於Gemini Nano 4的下一代更新尤其如此。

這是谷歌首次確認其最小智慧型手機AI模型將有更新版本。目前在Pixel手機上運行的Gemini Nano 3基於Gemma 3n,但谷歌向Ars Technica確認,下一代Nano 4將擁有基於Gemma 4 E2B和E4B的2B和4B變體。

該公司邀請開發者在最新的AI Core開發者預覽版中使用Gemma E2B和E4B開始原型智能體工作流。使用這些新模型設計的系統將在Gemini Nano 4發布時向前兼容。我們可能在幾周后的I/O大會上聽到更多相關資訊。

您可以立即在AI Studio(31B和26B MoE)和AI Edge Gallery(E4B和E2B)中查看新的Gemma模型。模型權重也可以從Hugging Face、Kaggle和Ollama完整下載。雖然模型針對本地處理進行了優化,但谷歌也很樂意在谷歌雲中為您運行這些模型,當然需要付費。

Q&A

Q1:Gemma 4相比Gemma 3有哪些主要改進?

A:Gemma 4在多個方面顯著改進:性能上提供更好的推理、數學和指令遵循能力;延遲更低,26B專家混合模型實現了更高的Token每秒處理速度;移動版本E2B和E4B實現"近零延遲"並降低記憶體和電池使用;上下文窗口擴大到128k-256k Token;代碼生成和視覺輸入處理能力增強。

Q2:Apache 2.0許可證相比之前的Gemma許可證有什麼優勢?

A:Apache 2.0許可證更加寬鬆和開發者友好。之前的Gemma許可證有嚴格的禁用政策,谷歌可單方面更新,要求開發者在所有項目中執行谷歌規則,甚至可能影響其他AI模型。而Apache 2.0沒有過度的使用條款或商業限制,開發者更熟悉,谷歌也無法隨意更改許可證條款。

Q3:Gemma 4的四種模型分別適用於什麼場景?

A:26B專家混合模型和31B稠密模型適用於高性能本地部署,前者注重速度,後者注重質量,需要80GB H100 GPU或量化後的消費級GPU。E2B和E4B模型專為移動設備優化,適用於智慧型手機、樹莓派等設備,支持語音識別,記憶體占用低,延遲近零,是下一代Gemini Nano 4的基礎。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2026 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新