Google 剛剛發布 Gemma 4 的 AI 模型,免費、開源,任何人都可以下載。它引起關注的原因是一張排行榜:這個模型的「體型」只有競爭對手的三十分之一,但表現幾乎一樣好。
這裡的「體型」指的是 AI 模型的參數量,可以想像成模型的腦容量,參數越多,理論上越聰明,但也越吃硬體資源。目前最強的 AI 模型動輒幾千億個參數,需要整個機房的伺服器才跑得動,一般人碰不到。
Gemma 4 最大的版本只有 310 億個參數(31B),但在 Arena Elo 這個由真人盲測投票的排行榜上,它拿到 1452 分,跟阿里巴巴的 Qwen 3.5(3,970 億參數,1450 分)、Deepseek v3.2(6,850 億參數,1425 分)打成平手甚至更高。Qwen 3.5 的體型是 Gemma 4 的 12.8 倍,Deepseek v3.2 是 22 倍。
這件事的實際意義在硬體門檻,3,970 億參數的模型需要昂貴的伺服器叢集才能運作,但 310 億參數的模型可以在一台 Mac Mini 上跑。Mac Mini 售價不到兩萬台幣,放在桌上,不需要網路,不需要月費,不需要把資料傳到任何人的雲端。
Gemma 4 總共有四個版本,最小的 20 億參數可以在手機上跑,最大的 310 億參數可以在一般桌上型電腦或筆電上跑。全部採用 Apache 2.0 授權,代表任何人都可以免費使用、修改、拿去做商業產品,沒有限制。
當然要注意幾件事,Arena Elo 是單一指標,衡量的是真人盲測時的整體偏好,在特定任務上(比如複雜的程式碼、長篇推理),大型模型可能還是有明顯優勢。而且這張比較圖來自 Google 官方的行銷素材,自然會挑最有利的指標。Gemma 4 很強,但說它等同於雲端最頂級的 AI 服務,還是太誇張了。
真正值得關注的趨勢是效率的進步速度,半年前要花大錢在雲端才能用到的 AI 能力,現在可以免費裝在桌上。這條曲線還在往下走。
沒有留言:
張貼留言