『大模型笔记』大模型中的Scaling Law(规模法则)
大模型中的Scaling Law(规模法则) |
- Scaling Laws简单介绍就是:随着模型参数量大小、数据集大小和用于训练的浮点数计算量的增加,模型的性能会提高。并且为了获得最佳性能,所有三个因素必须同时放大。当不受其他两个因素的制约时,模型性能与每个单独的因素都有幂律关系。
一. 核心结论
- OpenAI于2020年1月23放出的论文:Scaling Laws for Neural Language Models。核心结论如下:
原文地址:https://blog.csdn.net/abc13526222160/article/details/136527991
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!