谷歌:我们的Gemma 3,单GPU便能媲美Deepseek

内容摘要谷歌表示,我们已经找到了在性能与效率之间的理想平衡点。站长之家(ChinaZ.com) 3月13日 消息:在AI领域,“经济效益”一直是热门话题,在 DeepSeek 实现了令人瞠目的规模经济效益之后,谷歌也不甘落后地加紧了步伐。周三(当地

谷歌大模型

谷歌表示,我们已经找到了在性能与效率之间的理想平衡点。

站长之家(ChinaZ.com) 3月13日 消息:在AI领域,“经济效益”一直是热门话题,在 DeepSeek 实现了令人瞠目的规模经济效益之后,谷歌也不甘落后地加紧了步伐。周三(当地时间),谷歌发布了他们最新的开源大型语言模型 Gemma 3。谷歌方面宣传,这款模型只需要用等同于对手一小部分的计算能力,就能达到媲美 Deepseek R1 模型的准确率。

谷歌引用了“埃洛(Elo)等级分系统”,称 Gemma 3 的评分达到了 Deepseek R1 评分的 98% —— Gemma 3 为 1338 分,而 Deepseek R1 为 1363 分。

这意味着 R1 模型仍优于 Gemma 3。然而,据谷歌估计,要达到 R1 模型的评分,需要 32 块英伟达(Nvidia)的主流 “H100” GPU 芯片,而 Gemma 3 仅需使用一块 H100 GPU 芯片。

DeepSeek

谷歌称,Gemma 3 的计算能力与Elo评分之间的平衡达到了一个 “理想状态”。

谷歌在一篇博文中,将 Gemma 3 宣传为 —— “你能在单张 GPU 或 TPU(张量处理单元)上运行的最强大的模型”,TPU 指的是该谷歌专为应用定制的集成电路芯片。

该博文在提及Elo评分时写道:“就其规模而言, Gemma 3 实现了最先进的性能,在 LMArena 排行榜(知名AI榜单)的初步人类偏好评估中,其表现超过了 Llama-405B、DeepSeek-V3、以及 o3-mini。”

谷歌的 Gemma 3 模型在Elo评分上也超过了 meta 公司的 Llama 3 模型。据谷歌估计,运行 Llama 3 需要 16 块 GPU 芯片。

需要注意的是,竞争对手使用的 H100 芯片数量都是谷歌的估计,Deepseek 仅披露了一个使用 1814 块英伟达性能稍弱的 H800 GPU 芯片来作为 R1 模型提供服务的例子。

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备2021030705号-4