大数据文摘出品
来源:lambdalabs
编译:张秋玥
随着深度学习模型变得更加强大,它们也需要更多的内存空间,但许多GPU的VRAM不足以满足需求。
如果你正准备进入深度学习领域,你应该选择哪种GPU呢?以下是一些适合深度学习模型训练的GPU的横向比较,一起来看看吧!
简要概览
截至2020年2月,以下GPU能够训练所有当前的语言和图像模型:
RTX 8000:48GB VRAM,约5500美元 RTX 6000:24GB VRAM,约4000美元 Titan RTX:24GB VRAM,约2500美元 以下GPU能够训练大多数(但不是全部)模型:
RTX 2080 Ti:11GB VRAM,约1150美元 GTX 1080 Ti:11GB VRAM,返厂翻新机约800美元 RTX 2080:8GB VRAM,约720美元 RTX 2070:8GB VRAM,约500美元 以下GPU不适合用于训练当前模型:
RTX 2060:6GB VRAM,约359美元。在此GPU上训练需要较小的批次大小,模型的分布近似会受到影响,从而可能降低模型精度。
图像模型
最大批处理大小(在内存不足之前):
*表示GPU没有足够的内存来运行模型。
性能(以每秒处理的图像为单位):
*表示GPU没有足够的内存来运行模型。
语言模型
最大批处理大小(在内存不足之前):
*表示GPU没有足够的内存来运行模型。
性能:
* GPU没有足够的内存来运行模型。
使用Quadro RTX 8000结果进行标准化后的表现
图像模型
语言模型
结论
语言模型比图像模型更依赖于大容量的GPU内存。注意右图的曲线比左图更陡。这表明语言模型更受内存大小的限制,而图像模型更受计算能力的限制。具有较大VRAM的GPU性能更好,因为使用较大的批处理大小有助于CUDA内核饱和。具有更大VRAM的GPU可以按比例支持更大的批处理大小。即使是小学数学水平的人也能理解这一点:拥有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU处理三倍大的批次。长序列语言模型不成比例地占用大量内存,因为注意力机制是序列长度的二次函数。GPU购买建议
RTX 2060(6 GB):适合业余时间探索深度学习。 RTX 2070或2080(8 GB):适用于认真研究深度学习,但GPU预算在600-800美元之间。8 GB的VRAM适用于大多数模型。 RTX 2080 Ti(11 GB):适用于认真研究深度学习且GPU预算约为1,200美元。RTX 2080 Ti比RTX 2080快大约40%。 Titan RTX和Quadro RTX 6000(24 GB):适用于广泛使用现代模型,但没有足够的预算购买RTX 8000。 Quadro RTX 8000(48 GB):适用于投资未来或研究2020年最新的酷炫模型。附注
图像模型:
语言模型:
相关报道:
https://www.php.cn/link/c15e1bfe1ac5ed47bec025ca88301b3f
以上就是2020年深度学习最佳GPU一览,看看哪一款最适合你!的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号