用20塊GPU裝下整個(gè)互聯(lián)網(wǎng)!本次GTC大會(huì ),黃仁勛繼續大秀“AI肌肉”
黃仁勛:不裝了,我就是AI。
就在今天凌晨,英偉達CEO黃仁勛帶來(lái)了名為“I AM AI”的線(xiàn)上主題演講!
即使告別了我們熟悉的廚房,但黃仁勛照樣給我們端上多道“硬核大菜”。
先是搭載全新Hopper架構的H100 GPU,接著(zhù)是Grace超級芯片,然后依次談到了機器人、自動(dòng)汽車(chē)以及其他軟件更新。
總得來(lái)看,英偉達再度將GPU的算力推向了極致,借此加強自身在A(yíng)I、汽車(chē)等領(lǐng)域的實(shí)力。同時(shí),英偉達已經(jīng)為下一波AI浪潮以及無(wú)限幻想的元宇宙做好了準備。
800億晶體管的“算力怪獸”
作為AI算力的保障,以及英偉達的“老本行”,全新GPU自然是GTC 2022最值得關(guān)注的新品。
首先帶來(lái)的新品是H100 GPU,該芯片由800億個(gè)晶體管構建而成,采用了專(zhuān)為英偉達加速計算需求而優(yōu)化的TSMC 4N工藝,單個(gè)H100最大支持40TB/s的IO帶寬。
用黃仁勛的話(huà)來(lái)說(shuō):20塊H100 GPU就可承托全球互聯(lián)網(wǎng)的流量。這足以看出這塊芯片的恐怖算力。
H100同時(shí)還集多個(gè)首個(gè)于一身,包括首款支持PCIe 5.0的GPU,首款采用HBM3標準的GPU,以及全球首款具有機密計算功能的GPU。
相比于上一代Ampere架構的A100,H100帶來(lái)了6項突破性的創(chuàng )新:
1、目前世界最先進(jìn)的芯片。
2、搭載最新Transformer引擎,速度提升至上一代的6倍。
3、第二代安全多實(shí)例,可以同時(shí)處理不同類(lèi)型的任務(wù)。
4、具備機密計算功能,此前隱私計算只能在CPU上實(shí)現,但H100成為第一個(gè)實(shí)現該功能的GPU,可以保護AI模型和正在處理的客戶(hù)數據。
5、支持第4代NVLink,每個(gè)NVLink Switch網(wǎng)絡(luò )最多可以連接多達256個(gè)H100,相較于上一代產(chǎn)品,帶寬高出9倍。
6、Hooper架構引入了名為DPX的新指令集,可加速動(dòng)態(tài)規劃,算法速度有了顯著(zhù)提升。
在H100的幫助下,研究人員和開(kāi)發(fā)者可以訓練龐大的模型。比如包含3950億個(gè)參數的混合專(zhuān)家模型,訓練速度加速高達9倍,訓練時(shí)間從幾周縮短到幾天。
值得一提的是,黃仁勛并沒(méi)有過(guò)多介紹Hopper架構。該架構以美國計算機領(lǐng)域的先驅科學(xué)家Grace Hopper 的名字命名,被單獨用作計算加速使用,而未來(lái)推出的RTX 40系列顯卡使用的GPU將基于A(yíng)da Lovelace架構。
雖然此次公布的H100與此前的爆料略有縮水,但不妨礙其成為超算界最強引擎,這也稱(chēng)得上英偉達進(jìn)一步擴大在A(yíng)I計算領(lǐng)域領(lǐng)導力的體現。
世界上最快的AI超級計算機
借助DFX POD架構與NVLink連接,8塊H100構成了一個(gè)巨型AI系統——NVIDIA DGX H100。該系統可以滿(mǎn)足大型語(yǔ)言模型、推薦系統、醫療健康研究和氣候科學(xué)的大規模計算需求。
你以為這個(gè)系統已經(jīng)很強大了?
基于DGX H100,英偉達推出全球運行速度最快的AI超級計算機——NVIDIA EOS。該超級電腦共配備576臺DGX H100系統,共計4608塊DGX H100 GPU,顯存帶寬高達768TB/s,有望成為全球運行速度最快的 AI 系統。而整個(gè)互聯(lián)網(wǎng)不過(guò)只有100TB/s。
據悉,NVIDIA EOS預計將提供18.4 Exaflops的AI計算性能,這比目前運行速度最快的日本Fugaku超級計算機還快4倍。
為了將數量龐大的H100連接起來(lái),英偉達還推出了NVLink Switch網(wǎng)絡(luò )系統和更強的DFX superPOD架構,這樣就可以連接32個(gè)結點(diǎn)、256個(gè)H100 GPU。你可以想象成一個(gè)“加強版”的DGX H100系統。
黃仁勛說(shuō):“對于英偉達的OEM和云計算合作伙伴來(lái)說(shuō),EOS將成為先進(jìn)AI基礎設施的藍圖。”
未來(lái),該系統可以為汽車(chē)、醫療健康、制造、通信、零售等行業(yè)提供開(kāi)發(fā)大型模型所需的AI性能。
最強大的AI專(zhuān)屬CPU
在去年GTC大會(huì )上,英偉達透露了首款數據中心專(zhuān)屬CPU Grace,而在今年,這款面向AI基礎設施和高性能計算的超級CPU正式亮相。
這次的Grace有兩個(gè)版本,第一個(gè)版本叫做Grace-Hopper,是“CPU+GPU結合體,使用NVLink技術(shù)連接,帶寬高達900GB/s。
而名為“Grace CPU超級芯片”的版本則由兩個(gè)CPU芯片封裝組成,它們之間通過(guò)NVLink-C2C連接。整個(gè)超級芯片總計144個(gè)CPU內核(基于A(yíng)RMv9指令集),緩存容量396MB,支持LPDDR5X ECC內存,帶寬高達1TB/s。
性能方面,Grace CPU 超級芯片的SPECint 2017得分為業(yè)內領(lǐng)先的740分,黃仁勛表示這個(gè)性能沒(méi)有什么產(chǎn)品可與之媲美,稱(chēng)贊為“最強大的CPU”。
據悉,借助帶有糾錯碼的LPDDR5x內存組成的子系統,Grace CPU 超級芯片可以實(shí)現速度與功耗的最佳平衡,帶寬高達1TB/s,整體功耗僅500W。
有趣的是,這套芯片系統展示了NVLink-C2C的強大擴展性,加之英偉達早些時(shí)候發(fā)布的UCIe標準(通用小芯片互連傳輸通道),未來(lái)用戶(hù)采用英偉達產(chǎn)品時(shí),可以像搭積木一樣靈活選擇CPU和GPU的組合。
One More Thing
· Omniverse平臺
在去年CTC大會(huì )上,黃仁勛就重點(diǎn)介紹了Omniverse平臺。該平臺為3D設計師提供了一個(gè)共享的虛擬世界,他們可以從不同的軟件應用程序和不同的地理位置進(jìn)行協(xié)作。
今年,英偉達專(zhuān)注于讓個(gè)人和企業(yè)更廣泛地使用Omniverse平臺。新的Omniverse Cloud使創(chuàng )作者能夠即時(shí)訪(fǎng)問(wèn)Omniverse,即使他們沒(méi)有基于Nvidia RTX的系統。同時(shí)推出的Omniverse OVX則是一個(gè)旨在滿(mǎn)足大規模仿真需求的計算系統。
· 自動(dòng)駕駛汽車(chē)
作為英偉達在A(yíng)I領(lǐng)域的重要探索,汽車(chē)產(chǎn)品線(xiàn)將在未來(lái)六年內增加至超過(guò)110億美元。
本次,英偉達推出了最新版本的Hyperion 9自動(dòng)駕駛平臺,這既是Nvidia DRIVE Orin平臺的基本架構,也是英偉達用于自動(dòng)駕駛汽車(chē)的硬件架構。據悉,該平臺將有14個(gè)攝像頭、9個(gè)雷達、3個(gè)激光雷達和20個(gè)超聲傳感器,將于2026年投入使用。
有趣的是,黃仁勛透露了已經(jīng)采用DRIVE Orin平臺的廠(chǎng)商,其中,中國廠(chǎng)商占據了不少席位,而比亞迪也將從2023年上半年開(kāi)始采用DRIVE Orin平臺。
結語(yǔ)
除了上述更新外,英偉達還推出了機器人平臺、AI計算基礎架構、醫療儀器平臺以及六款使用Ampere架構的全新RTX GPU,產(chǎn)品線(xiàn)可謂十分豐富,這里就不再過(guò)多介紹。
總得來(lái)看,英偉達一直在緊跟兩條主線(xiàn)前行,一條是AI,另一條則是Omniverse平臺。
雖然這次黃仁勛并沒(méi)有直接點(diǎn)名元宇宙,但無(wú)處不在的TJ(黃仁勛數字替身)還是展示出英偉達對于元宇宙的重視程度。
希望在未來(lái)的GTC大會(huì )上,黃仁勛能給我們帶來(lái)屬于元宇宙的“核彈”。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
