🔗 英文原文: https://jax-ml.github.io/scaling-book/conclusion/
✍️ 翻译: 北极的树
微信二维码 微信公众号

结论与延伸阅读

如何扩展你的模型》第11部分 (第10部分:JAX | 第12部分:GPU)

感谢您的阅读!这里我们将提供一些供进一步学习的参考文献。

感谢您阅读本系列文章,并祝贺您坚持到了最后。 在结束之前,我们想表达一些谢意:

致谢

这份文档凝聚了 Google DeepMind 许多人的巨大投入,我们想在此对他们表示简要的感谢!

我们还要感谢许多在整个过程中给予关键反馈的其他人,特别是 Zak Stone、Nikhil Sethi、Caitlin Stanton、Alex Dimitriev、Sridhar Lakshmanamurthy、Albert Magyar、Diwakar Gupta、Jeff Dean、Corry Wang、Matt Johnson、Peter Hawkins 等等。感谢 Ruiqi Gao 在 HTML 格式化方面提供的帮助。

谢谢大家!

在您离开之前,您可能也会喜欢阅读关于 NVIDIA GPU 的新第12节

延伸阅读

这里有一些相关的文章,包括以下内容:

在这一领域,仍有很大的空间可以进行全面的写作,因此我们希望这份手稿能鼓励更多这样的作品出现!我们也相信这是一个值得学习和研究的富有成果的领域。在许多情况下,即使手头没有很多硬件加速器,也可以进行这项工作。

反馈

请留下您的评论或问题,以便我们进一步改进。您可以通过 jaaustin [at] google [dot] com 联系我们的通讯作者 Jacob Austin,或者通过在 GitHub 上提交 issue、pull request 或 discussion 来建议修改。

脚注

    杂项

    *工作于 Google DeepMind 完成,现就职于 MatX。

    引用

    在学术背景下引用,请按如下格式:

        Austin et al., "How to Scale Your Model", Google DeepMind, online, 2025.
    

    或使用 BibTeX 条目:

        @article{scaling-book,
          title = {How to Scale Your Model},
          author = {Austin, Jacob and Douglas, Sholto and Frostig, Roy and Levskaya, Anselm and Chen, Charlie and Vikram, Sharad
          and Lebron, Federico and Choy, Peter and Ramasesh, Vinay and Webson, Albert and Pope, Reiner},
          publisher = {Google DeepMind},
          howpublished = {Online},
          note = {Retrieved from https://jax-ml.github.io/scaling-book/},
          year = {2025}
        }