Google 推出 Gemma 4 開放模型,對抗 Llama、Qwen 搶攻開源 AI 市場
一句話版本
Google 推出用 Apache 2.0 授權、可由手機一路部署到資料中心 GPU 的 Gemma 4,重點唔只係多一個模型選擇,而係再一次拉低企業自建 AI 能力嘅門檻。
點解重要
- 開放授權唔只係「可用」,而係方便落地。 Apache 2.0 代表企業同開發者喺商業使用、二次開發、內部部署上阻力更低,對我哋嚟講,評估新模型時唔使一開始就卡死喺授權風險。
- 硬體覆蓋範圍闊,代表試驗成本更彈性。 由 Android、筆電 GPU 到 H100 都支援,意味住同一個模型家族可以由原型驗證一路走到較大規模部署,減少「PoC 用得、正式環境又要重揀模型」嘅切換成本。
- Gemma 4 明顯係衝住開放模型主戰場而來。 Google 唔再只係做閉源雲端 AI,依家係直接同 Llama、Qwen、Mistral 爭開發者生態;對我哋而言,供應商選擇變多,議價能力同架構自主性都會提高。
- 模型尺寸分層清楚,有助按場景揀配套。 2B、4B、26B、31B 提供由輕量到高品質輸出的路線,代表我哋可以按延遲、成本、裝置能力去配模型,而唔係所有任務都硬塞同一個大模型。
- MoE 同 Dense 兩條路線,反映 Google 想同時搶效能同效果。 26B MoE 偏低延遲、31B Dense 偏輸出品質與微調基礎,呢個差異對產品設計好實際,因為即時互動型功能同高要求生成型功能未必應該用同一款模型。
- 量化版可落消費級 GPU,令本地部署更有現實性。 呢點好關鍵,因為好多團隊唔會一開始就有高階伺服器資源;如果量化後仍可用,開發、測試、甚至中小型內部應用都更容易推得動。
- 長文本能力同多語言支援,令企業知識場景更值得留意。 超過 140 種語言再加長文本處理,對文件分析、跨語系搜尋、內部知識助理等場景較有吸引力,尤其係資料來源唔止英文嘅團隊。
- 多模態支援令 Gemma 4 唔只係聊天模型。 文字、程式碼、影像、影片,部分仲支援語音輸入,代表 Google 係想令佢成為更通用嘅應用底座,而唔係只限單一生成任務。
- 文章提到 IDE、程式輔助、agentic workflow,顯示焦點係開發者工作流。 即係話 Google 唔只想俾研究人員試模型,而係想直接進入日常工程工具鏈,呢個方向同而家產品化趨勢一致。
- 企業可自行部署,實際上係減少對單一雲 API 嘅依賴。 呢個唔單止係成本問題,仲關乎資料控制、可觀察性、延遲穩定性同合規安排;對有敏感資料或內部流程需求嘅團隊尤其重要。
我哋點睇
- 如果我哋有本地優先、資料唔想外流、或者需要可控延遲嘅場景,Gemma 4 值得列入同 Llama、Qwen 一齊比較,唔應該再只睇閉源 API。
- 評估時唔好只問「準唔準」,要拆開睇:小模型適唔適合邊緣或低成本任務、26B MoE 適唔適合即時流程、31B Dense 值唔值得做微調底座。
- 對團隊最有可見效果嘅應用,會係內部文件問答、多語系內容處理、程式輔助同半自動 agent 流程;如果試得成,用家會直接感受到回應更快、資料更留喺自己環境、同埋功能唔使完全依賴外部雲服務。