MoneyDJ新聞 2025-10-13 17:24:50 新聞中心 發佈
隨著AI運算需求一直在增加,資料中心的能源消耗也不斷創新高。怎樣在效能、成本和永續發展之間找到平衡,已經變成雲端服務供應商和企業面對的重要挑戰。仁寶(2324)表示,公司將參加2025 OCP全球高峰會(OCP Global Summit 2025),發表最新的資料中心技術藍圖,展示包括AI策略合作、CXL(Compute Express Link,運算快速連結)架構記憶體解決方案,以及先進液冷技術等多項創新成果,全方位展現仁寶對未來資料中心基礎架構的前瞻願景。
近幾年來,伺服器市場的重點已經從單純追求運算效能轉向更注重能源效率與系統可擴充性。仁寶持續深化與輝達(NVIDIA)的合作,用心滿足企業對高效能、彈性和能源效益的多重需求,加速AI工廠與推論平台部署,縮短產品上市時間。
仁寶電腦基礎架構事業群副總經理張耀文指出,AI已從概念驗證階段進入企業數位轉型核心。我們跟輝達合作專注於整合運算、網路及散熱技術,希望協助客戶打造具備可擴充性及永續性的AI基礎架構。
另外,仁寶也將展示基於CXL與RDMA(Remote Direct Memory Access, 遠端直接記憶體存取)架構下的PCIe(Peripheral Component Interconnect Express)記憶體池化技術,在記憶體擴充、動態資源配置以及低延遲互連方面有創新突破。
仁寶指出,公司透過PCIe Gen5 (Peripheral Component Interconnect Express,第五代匯流排標準)、NVMe-oF (Non-Volatile Memory Express over Fabrics, 跨網路非揮發性記憶體傳輸協定) 與CXL Fabric等先進互連技術,使伺服器節點間高速資料互通並共享資源池化,更進一步整合記憶體與儲存層級,把儲存變成像主記憶體一樣可以即時存取,同時提升系統整個運算效率及可擴展性。在展示現場中,他們會強調多TB級別記憶池化能力和快取一致性技術,好讓參加者親身感受這些科技如何實現更有效率、有彈性的能源優化 AI 資料中心環境。
同時為了應付高效能GPU帶來散熱挑戰,本次高峰會上仁寶將推出兩款創新的液冷伺服器:「OG720-2A-L2 ORv3 7OU 8x AMD Instinct GPU直接晶片液冷AI伺服器」以及「SG223-2A-I 2U 8x GPU浸沒式液冷伺服器」。這兩款解決方案顯示出在高度負載計算環境中如何兼顧最佳性能和能源效率,以實現部分功率使用效果(pPUE)<1.1 的卓越表現,是為了下一代密集型 AI 和 HPC 應用提供具備可擴充且有效率計算基礎設施而設計出來的新方案。
(圖片來源:仁寶)