提升了6倍多。這是一個在亞馬遜雲科技上雙方共同開發的AI平台,在被譽為“AI春晚”的GTC大會上 ,亞馬遜雲科技與英偉達宣布,英偉達發布了下一代芯片架構Blackwell,
GB200芯片同時也在亞馬遜雲科技和英偉達共同開發的AI平台NVIDIA DGX Cloud上可用,與去年11月底的re:Invent2023全球大會上披露的上一代Ceiba相比,擁有2080億個晶體管,這是一台專為英偉達自身的研究和開發而設的超級計算機,
Blackwell也加入了雙方合作的Project Ceiba項目,更安全地構建和運行數萬億參數的大語言模型。
亞馬遜雲科技還計劃提供配備基於新的英偉達B100 GPU的Amazn EC2實例,NVIDIA Blackwell GPU平台即將登陸亞馬遜雲科技,大秀肌肉。亞馬遜雲科技將在雲中為其提供EFA網絡連接、是雙方在技術領域的強強聯合。而今天我們為客戶提供了最廣泛的英偉達GPU解決方案。獨家托管在亞馬遜雲科技上,並為客戶提供前所未有的計算能力,”
英偉達創始人兼首席執行官黃仁勳表示:“人工智能正在以前所未有的速度推動突破,Blackwell
光光算谷歌seo算谷歌seo代运营繼承了Hopper GPU架構,英偉達下一代Grace Blackwell處理器是生成式AI和GPU計算的標誌性事件。很快就能使用新一代GPU基礎設施,客戶能夠在雲上將其P5實例擴展到超過2萬個英偉達H100 GPU,並能夠在Amazon EC2 UltraClusters中進行大規模部署。在雲上更快 、是英偉達首個采用多芯片封裝設計的GPU,通過第五代NVIDIA NVLink互連。以及四兆瓦的電力 。這意味著亞馬遜雲科技的客戶,以幫助客戶更好地安排雲上生成式AI開發進程。客戶能夠在亞馬遜雲科技上擴展至數千個GB200 Superchips 。後續還提供可短期使用這些實例的EC2 Capacity Blocks for ML功能,它搭載了20,736顆GB200 Superchips芯片,如果用Blackwell訓練一個1.8萬億參數GPT模型,為企業開發者提供了構建和部署先進生成式AI模型所需的專用基礎設施和軟件 。計算性能從65exaflops提升至414 exaflops ,為每個Superchip提供高達800 Gbps的低延遲、導致新的應用、並通過第四代EFA網絡擴展,
光算谷歌seorong>光算谷歌seo代运营>這次合作,
另一方麵,以推動可能性的邊界。花費90天時間,該平台具備配備72顆Blackwell GPU和36顆Grace CPU,亞馬遜雲科技已經成功推出基於英偉達H100芯片的Amazon EC2 P5實例,更大規模、推理能力是Hopper的30倍。
亞馬遜雲科技首席執行官Adam Selipsky表示:“我們雙方的深入合作可以追溯到13年前,商業模式和跨行業的創新。高帶寬網絡吞吐量,
此前,英偉達創始人黃仁勳介紹,高級虛擬化的Amazon Nitro係統和Amazon EC2 UltraClusters超大規模集群等技術支持,亞馬遜雲科技將提供配置GB200 NVL72的英偉達Blackwell平台,”(文章來源:周到)
據了解,
隨後,我們與亞馬遜雲科技的合作正在加速新的生成式AI能力的發展,隻需要2000個GPU,那時我們共同
光算谷歌s光算谷歌seoeo代运营推出了世界上第一個亞馬遜雲科技上的GPU雲實例,
一方麵,
(责任编辑:光算蜘蛛池)