導讀:用于人工智能 (AI) 和高性能計算 (HPC) 應用的英偉達 H100 GPU 交貨周期大幅縮短,從之前的 8-11 個月縮減至僅 3-4 個月。
2 月 27 日消息,據報道,用于人工智能 (AI) 和高性能計算 (HPC) 應用的英偉達 H100 GPU 交貨周期大幅縮短,從之前的 8-11 個月縮減至僅 3-4 個月。這導致一些囤貨的公司正在試圖出售其過剩的 H100 80GB 處理器,因為現在從亞馬遜云服務、谷歌云和微軟 Azure 等大型公司租用芯片更加方便。
據 The Information 報道稱,由于稀缺性降低以及維護未使用庫存的高昂成本,一些公司正在轉售其 H100 GPU 或減少訂單,這與去年爭相搶購英偉達 Hopper GPU 形成鮮明對比。盡管芯片可用性改善且交貨周期顯著縮短,但報道稱,對 AI 芯片的需求仍然超過供給,尤其是一些訓練大型語言模型 (LLM) 的公司,例如 OpenAI。
云服務提供商(CSP)例如亞馬遜 AWS 提供按需租用 H100 GPU 的服務,緩解了部分需求壓力,縮短了等待時間。
然而,由于訓練大型語言模型需要成千上萬的 GPU,因此此類公司仍面臨供應瓶頸,有時需要等待數月才能獲得所需的處理能力。因此,英偉達 H100 等處理器的價格并未下降,公司仍保持著高利潤率。
IT之家注意到,隨著芯片供應瓶頸的緩解,買家行為也發(fā)生了轉變。企業(yè)變得更加注重價格和采購 / 租賃的合理性,傾向于選擇更小的 GPU 集群并關注其業(yè)務的經濟可行性。
由于替代方案(例如 AMD 或 AWS 的處理器)的性能和軟件支持不斷加強,再加上對 AI 處理器更加謹慎的支出,AI 領域可能迎來更加平衡的市場格局。