(最後更新:2024/05/14 Google I/O 消息)
大眾們都嘲笑 Google 在這一波大型語言模型的發展中落後。然而整個 AI / LLM 的生態系很龐大,大眾聚焦在「對話型機器人」 (ChatGPT/Sora),而忘了背後的生態系:基礎建設、模型多樣性、生產力工具 … 等。
本文試圖以公開的資料來分析,為何 Google 依舊是 AI 生態系的巨人,有著強大而韌性的活力。(as of Apr 2024)
任務與模型
新聞最熱衷評比的是最大最強的模型,大家更愛吹捧模型的參數大小,越大越好,彷彿不需要受物理限制與成本的考量。
實務上,模型不是大就好,而是在處理的任務難度/成本/時間/硬體資源當中取得平衡。
例如:在手機上面 (離線) 分析使用者社群貼文的心情,就不需要用到龐大的模型 (如:載入 Llama 2 70B 的模型需要大約 56GB RAM ,手機記憶體根本不夠用)。
速記:Ultra 是旗艦 (展示火力),Pro 是大眾款,Nano 則是給行動/邊緣計算。
如上面的表格,Google 實際上針對不同的任務與應用場景,產生了不同大小的模型,企圖在所有的應用場景都能使用。
兼顧:
- 成本 (Ultra/Pro)
- 開放與否 (Gemini/Gemma)
- 是否需要網路連線 (cloud/edge)
- 硬體限制 (大到 xT,小到 1.8B 的模型參數)。
對標其他公司的模型
其他公司也是這樣區隔市場的,下表也可以看到對標的模型。