Google 完整的 LLM 生態系優勢

Louis
Apr 14, 2024

--

(最後更新:2024/05/14 Google I/O 消息)

大眾們都嘲笑 Google 在這一波大型語言模型的發展中落後。然而整個 AI / LLM 的生態系很龐大,大眾聚焦在「對話型機器人」 (ChatGPT/Sora),而忘了背後的生態系:基礎建設、模型多樣性、生產力工具 … 等。

本文試圖以公開的資料來分析,為何 Google 依舊是 AI 生態系的巨人,有著強大而韌性的活力。(as of Apr 2024)

任務與模型

新聞最熱衷評比的是最大最強的模型,大家更愛吹捧模型的參數大小,越大越好,彷彿不需要受物理限制與成本的考量。

實務上,模型不是大就好,而是在處理的任務難度/成本/時間/硬體資源當中取得平衡。

例如:在手機上面 (離線) 分析使用者社群貼文的心情,就不需要用到龐大的模型 (如:載入 Llama 2 70B 的模型需要大約 56GB RAM ,手機記憶體根本不夠用)。

速記:Ultra 是旗艦 (展示火力),Pro 是大眾款,Nano 則是給行動/邊緣計算。

如上面的表格,Google 實際上針對不同的任務與應用場景,產生了不同大小的模型,企圖在所有的應用場景都能使用。

兼顧:

  • 成本 (Ultra/Pro)
  • 開放與否 (Gemini/Gemma)
  • 是否需要網路連線 (cloud/edge)
  • 硬體限制 (大到 xT,小到 1.8B 的模型參數)。

對標其他公司的模型

其他公司也是這樣區隔市場的,下表也可以看到對標的模型。

--

--

Louis

A maker who believes that software can change the world. Love science, engineering and economics. From Taiwan. Living in Bay Area.