AMD劍指英偉達,祭出大模型用芯片
英偉達在三個月前發布了大模型專用芯片H100 NVL,作為GPU賽道上的老對手,AMD選擇正面迎擊。
經過一個多月的預熱,6月14日凌晨,AMD如約在舊金山召開“AMD數據中心與人工智能技術首映會”,并在會上展示了其即將推出的AI處理器系列。
在首映會上,人稱“蘇媽”的AMD公司CEO蘇姿豐,率先公布了MI300A,稱這是全球首個為AI和HPC打造的APU加速卡,根據芯片參數,該APU加速卡擁有13個小芯片,總共包含1460億個晶體管:24個Zen 4 CPU核心,1個CDNA 3圖形引擎和128GB HBM3內存。
最值得關注的則是,AMD針對大語言模型發布的MI300A優化版本。據悉,MI300X內存達到了192GB,內存帶寬為5.2TB/s,Infinity Fabric帶寬為896GB/s,晶體管達到1530億個。蘇姿豐稱,“你擁有的內存越多,該芯片可以處理的型號就越多。我們在客戶工作負載中看到,它的運行速度要快得多。”
此外,MI300X提供的HBM密度是英偉達H100的2.4倍,HBM帶寬是競品的1.6倍。為了展示其性能,在現場演示中,蘇姿豐用Hugging Face基于MI300X的大模型,實時寫作了一首關于舉辦地舊金山的詩歌。
向來以“性價比”優勢打開市場的AMD,這次似乎也不例外。MI300X過硬的參數,可以運行比英偉達H100更大的模型,蘇姿豐還表示,生成式AI模型可能不再需要數目那么龐大的GPU,可為用戶節省成本。
AMD稱,MI300系列芯片將于第三季度開始批量生產,并將于第四季度開始量產。發布會上,蘇姿豐并沒有透露哪些公司將計劃購買MI300X或MI300A。僅表示,MI300X主要客戶將在第三季開始試用,MI300A,現在還在向客戶推出。
另外,關于MI300系列芯片的成本,以及這款產品將如何提振營收等問題,AMD并沒有提及。
不過,AMD此次卻表現出極強的要硬剛英偉達的目標。此前,英偉達推出了帶有8個 Nvidia H100或A100 GPU和640GB GPU內存的云計算機,AMD此次也發布了集合8個MI300X,可提供總計1.5TB的HBM3內存的“AMD Instinct Platform”。為了對標英偉達的CUDA,AMD表示公司也有自己的芯片軟件“ROCm”。
在首映會上,AMD還對旗下第四代EPYC(霄龍)處理器家族進行了更新,推出了代號名為 Bergamo 的新產品,最高具有128核心、256線程。相較于現有的第四代 EPYC 處理器,Bergamo更著重于“商業層面的云計算”,其搭載了820億個晶體管,并能夠最高支持128個Zen 4c核心,兼容x86 ISA指令,可相對滿足深度云計算的應用需求。
蘇姿豐表示,Bergamo處理器可提供AMD目前最大的vCPU運算密度,相比于AMD此前的EPYC處理器,Bergamo 處理器可最高提升2.7倍能源效率,并提供三倍容器數量。
不過,AMD的這場發布會并沒有讓其在資本市場受益。在發布會前,AMD今年股價已經增長1倍,但在發布會后,AMD的當日股價收盤卻下跌了3.6%,反而英偉達股價收盤則上漲3.9%。
同處這場AI浪潮,AMD與英偉達均進行了大手筆投入,AMD為何難讓投資者增長信心呢?在GPU市場,蘇姿豐接手后的AMD被視為英偉達的最強競爭對手,但在人工智能計算領域,英偉達占據著主導地位。
英偉達三個月前發布的H100在大模型爆發導致的算力緊缺背景下,由于市場上幾乎沒有可規模替代的方案,包括微軟、谷歌、特斯拉、Facebook、華為、阿里、騰訊、字節跳動、百度等在內的企業,均利用英偉達GPU芯片組建AI計算集群,因此,包括H100在內的AI算力芯片被搶至斷貨,H100甚至一度被炒作到4萬美金。
AMD正面與英偉達競爭,但英偉達已在AI訓練端先后推出了V100、A100、H100三款芯片,并且向中國大陸銷售了A100和H100的帶寬縮減版產品A800和H800。AMD此次發布的GPU產品在硬件性能參數上超越英偉達,但在算力緊缺的背景下未能向市場及時供應產品,相較于英偉達已經遲了一步。