显卡 |
训练表现/ 相对于 A100 80G |
TDP/w |
每瓦性能/ 相对于 A100 80G |
A100 80G |
1 |
300 |
1 |
A100 40G |
0.86 |
250 |
1.032 |
RTX4090 |
0.69 |
450 |
0.459 |
RTX4080 |
0.505 |
320 |
0.473 |
RTX4070 |
0.42 |
200 |
0.63 |
RTX3090 |
0.48 |
350 |
0.41 |
RTX3080 |
0.38 |
320 |
0.35 |
RTX3070Ti系列 |
0.34 |
290 |
0.35 |
RTX3060 |
0.24 |
170 |
0.42 |
RTX3050 |
0.16 |
130 |
0.37 |
RTX2080Ti系列 |
0.29 |
250 |
0.35 |
RTX2080 |
0.21 |
215 |
0.29 |
RTX2070 |
0.19 |
175 |
0.32 |
RTX2060 |
0.16 |
160 |
0.3 |
AMD Radeon VII |
0.12 |
300 |
0.12 |
GTX1080Ti系列 |
0.2 |
250 |
0.24 |
GTX1070 |
0.13 |
150 |
0.26 |
GTX1660超级 |
0.09 |
125 |
0.216 |
AMD Rx580 8G |
0.095 |
185 |
0.154 |
考虑到平均20%的网络损耗,实际分布式AI训练相对于集中式A100 80G计算集群的性能瓦特比如下:
显卡 |
训练表现/ 相对于 A100 80G |
TDP/w |
每瓦性能/ 相对于 A100 80G |
RTX4090 |
0.552 |
450 |
0.367 |
RTX4080 |
0.404 |
320 |
0.378 |
RTX4070 |
0.336 |
200 |
0.504 |
RTX3090 |
0.384 |
350 |
0.328 |
RTX3080 |
0.304 |
320 |
0.28 |
RTX3070Ti系列 |
0.272 |
290 |
0.28 |
RTX3060 |
0.192 |
170 |
0.336 |
RTX3050 |
0.128 |
130 |
0.296 |
RTX2080Ti系列 |
0.232 |
250 |
0.28 |
RTX2080 |
0.168 |
215 |
0.232 |
RTX2070 |
0.152 |
175 |
0.256 |
RTX2060 |
0.128 |
160 |
0.24 |
AMD Radeon VII |
0.096 |
300 |
0.096 |
GTX1080Ti系列 |
0.16 |
250 |
0.192 |
GTX1070 |
0.104 |
150 |
0.208 |
GTX1660超级 |
0.072 |
125 |
0.173 |
AMD Rx580 8G |
0.076 |
185 |
0.123 |