NV黃仁勛“挑戰(zhàn)”CPU:GPU訓(xùn)練AI可降低96%成本
- 來源:快科技
- 作者:乃河
- 編輯:liyunfei
5月29日消息,在剛剛召開的2023年臺北電腦展上,NVIDIA首席執(zhí)行官黃仁勛進(jìn)行了演講。
在演講中,黃仁勛向傳統(tǒng)的CPU服務(wù)器集群發(fā)起“挑戰(zhàn)”,認(rèn)為在人工智能和加速計算這一未來方向上,GPU服務(wù)器有著更為強大的優(yōu)勢。
根據(jù)黃仁勛在演講上展示的范例,訓(xùn)練一個LLM大語言模型,將需要960個CPU組成的服務(wù)器集群,這將耗費大約1000萬美元(約合人民幣7070萬元),并消耗11千兆瓦時的電力。
相比之下,同樣以1000萬美元的成本去組建GPU服務(wù)器集群,將以僅3.2千兆瓦時的電力消耗,訓(xùn)練44個LLM大模型。
如果同樣消耗11千兆瓦時的電量,那么GPU服務(wù)器集群能夠?qū)崿F(xiàn)150倍的加速,訓(xùn)練150個LLM大模型,且占地面積更小。
而當(dāng)用戶僅僅想訓(xùn)練一個LLM大模型時,則只需要一個40萬美元左右,消耗0.13千兆瓦時電力的GPU服務(wù)器即可。
換言之,相比CPU服務(wù)器,GPU服務(wù)器能夠以4%的成本和1.2%的電力消耗來訓(xùn)練一個LLM,這將帶來巨大的成本節(jié)省。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論