哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

繼HBM之后,英偉達帶火又一AI內(nèi)存模組!顛覆AI服務(wù)器與PC

晶芯觀察 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:綜合報道 ? 2025-07-27 07:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)綜合報道,據(jù)韓媒報道,下一代低功耗內(nèi)存模塊 “SOCAMM” 市場已全面拉開帷幕。英偉達作為 AI 領(lǐng)域的領(lǐng)軍企業(yè),計劃在今年為其 AI產(chǎn)品部署60至80萬個 SOCAMM 內(nèi)存模塊,不僅將用于數(shù)據(jù)中心AI服務(wù)器,也將有望應(yīng)用于PC。這一舉措將對內(nèi)存市場以及相關(guān)產(chǎn)業(yè)鏈產(chǎn)生深遠影響。

SOCAMM

SOCAMM 全稱為 Small Outline Compression Attached Memory Module,即小型化壓縮附加內(nèi)存模組,是英偉達主導(dǎo)開發(fā)的一種新型內(nèi)存模塊,是適用于數(shù)據(jù)中心 AI 服務(wù)器的新型高性能、低功耗內(nèi)存。

它將低功耗 DRAM 與壓縮連接內(nèi)存模塊(CAMM)搭配使用,以全新的外形尺寸提供卓越的性能和能效?;?LPDDR5X 芯片,采用694個I/O端口,帶寬可達傳統(tǒng) DDR5 的2.5倍。

在物理形態(tài)上,SOCAMM 尺寸僅為 14×90 毫米,外形類似U盤,相比傳統(tǒng) RDIMM 體積減少66%,為實現(xiàn)更緊湊、高效的服務(wù)器設(shè)計提供了可能。SOCAMM 采用了可拆卸的模塊化插拔結(jié)構(gòu),改變了以往 LPDDR 內(nèi)存必須焊接在主板上的限制,用戶可以像更換硬盤或 SSD那樣便捷地進行內(nèi)存升級或替換,大大提高了系統(tǒng)的靈活性和可維護性。

SOCAMM 采用引線鍵合和銅互連技術(shù),每個模塊連接 16 個 DRAM 芯片,這種銅基結(jié)構(gòu)增強了散熱性能,對于 AI 系統(tǒng)的性能和可靠性至關(guān)重要。同時,SOCAMM 基于成熟的封裝工藝,顯著降低了部署門檻和制造難度,具備更強的成本控制能力和更廣泛的適用范圍。

于AI服務(wù)器和PC中采用

得益于 LPDDR5X 自身的低電壓設(shè)計和優(yōu)化后的封裝工藝,SOCAMM 使服務(wù)器整體運行能耗減少約 45%,這種高效能與低功耗的平衡特性,使得 SOCAMM 不僅適用于集中式的數(shù)據(jù)中心,也能很好地服務(wù)于邊緣計算場景中對空間和能耗敏感的應(yīng)用需求。NVIDIA 計劃將 SOCAM 率先應(yīng)用于其 AI 服務(wù)器產(chǎn)品和 AI PC(工作站)產(chǎn)品。

在英偉達的規(guī)劃中,將率先采用SOCAMM的產(chǎn)品將是GB300 Blackwell 平臺。Blackwell 架構(gòu) GPU 具有 2080 億個晶體管,采用專門定制的臺積電 4NP 工藝制造。所有 Blackwell 產(chǎn)品均采用雙倍光刻極限尺寸的裸片,通過 10 TB/s 的片間互聯(lián)技術(shù)連接成一塊統(tǒng)一的GPU。其在性能、效率和規(guī)模方面取得了突破性進步。而 SOCAMM 內(nèi)存模塊的加入,將進一步提升其在 AI 運算方面的表現(xiàn)。

此外,英偉達在今年5月GTC 2025上發(fā)布的個人 AI 超級計算機 “DGX Spark” 也采用了 SOCAMM 模塊。DGX Spark 采用 NVIDIA GB10 Grace Blackwell 超級芯片,能夠提供高性能 AI 功能,并支持多達 2000 億個參數(shù)的模型。隨著DGX Spark的推出,預(yù)計將推動SOCAMM向PC市場滲透,使更多消費者受益于這一先進的內(nèi)存技術(shù)。

SOCAMM 與現(xiàn)有的筆記本電腦 DRAM 模塊(LPCAMM)相比,其 I/O 速度提升,數(shù)據(jù)傳輸速度加快,且結(jié)構(gòu)緊湊,更易于更換和擴展。

隨著 SOCAMM 在 AI 服務(wù)器和 PC 中的應(yīng)用不斷增長,其大規(guī)模出貨預(yù)計將對內(nèi)存和 PCB 電路板市場產(chǎn)生積極影響。知情人士透露,“英偉達正在與內(nèi)存和電路板行業(yè)分享 SOCAMM 的部署量(60 至 80 萬片),該模塊將應(yīng)用于其 AI 產(chǎn)品”,目前內(nèi)存和 PCB 電路板行業(yè)都在為訂單和供貨積極做準(zhǔn)備。

從內(nèi)存市場來看,SOCAMM 的應(yīng)用將刺激對低功耗 DRAM 的需求,推動內(nèi)存廠商加大在相關(guān)技術(shù)研發(fā)和產(chǎn)能擴充方面的投入。由于 SOCAMM 需要適配電路板設(shè)計,這將促使 PCB 廠商開發(fā)新的產(chǎn)品方案,帶動行業(yè)技術(shù)升級。

美光率先供應(yīng)SOCAMM

目前在內(nèi)存廠商中,美光的 SOCAMM已率先獲得英偉達量產(chǎn)批準(zhǔn)。美光在內(nèi)存解決方案領(lǐng)域一直積極探索創(chuàng)新,成為英偉達下一代內(nèi)存供應(yīng)商。而三星和 SK 海力士的 SOCAMM 目前尚未獲得英偉達認證,不過這兩家內(nèi)存大廠也在積極與英偉達接洽,希望能夠供應(yīng)SOCAMM。

美光 SOCAMM 是業(yè)界首款專為 AI 資料中心設(shè)計的資料中心級模塊化低功耗存儲器模塊。透過將美光業(yè)界領(lǐng)先的 LPDDR5X 與 CAMM 存儲器模塊結(jié)合在一起,這款次世代存儲器為更有效率的 AI 資料中心奠定了基礎(chǔ)。

來源:美光官網(wǎng)


美光宣稱其最新LPDDR5X芯片能效比競爭對手高出20%,這是其贏得英偉達訂單的關(guān)鍵因素??紤]到每臺AI服務(wù)器將搭載四個SOCAMM模塊(總計256個DRAM芯片),散熱效率的重要性尤為突出。

與美光此前生產(chǎn)的服務(wù)器 DDR 模塊RDIMM相比,SOCAMM的尺寸和功耗減少了三分之一,帶寬增加了 2.5 倍。

通過采用美光LPDDR5X 等創(chuàng)新型低功耗(LP)存儲器架構(gòu),資料中心可以大幅提高效能,并能夠避免傳統(tǒng) DDR5 存儲器的能源損耗。與 DDR5 等傳統(tǒng)存儲器技術(shù)不同,LP 存儲器運行于較低的電壓,并通過減少功耗、降低發(fā)熱量、最佳化以節(jié)能為重點的電路設(shè)計等方式提高功耗和能源效率。

在大規(guī)??蛻糁С汁h(huán)境中執(zhí)行推理 Llama 3 70B,單個 GPU 管理復(fù)雜的AI互動,同時實時處理數(shù)千個錯綜復(fù)雜的客戶查詢。LP 存儲器的使用將這一密集型運算工作量轉(zhuǎn)化為能源效率更高的過程。

當(dāng)我們測試 LPDDR5X 存儲器(在搭載 NVLink 的 NVIDIA GH200 Grace Hopper 超級芯片上)與傳統(tǒng) DDR5 存儲器(在搭載 PCIe 連線 Hopper GPU 的 x86 系統(tǒng)上)時,結(jié)果表明 LP 存儲器實現(xiàn)了關(guān)鍵的效能提升。使用 Meta Llama 3 70B 測試推理效能時,LP 存儲器系統(tǒng)推理吞吐量提高了 5 倍、延遲減少了近 80%、能源消耗降低了 73%。

LLM 推理的能源效率 來源:美光官網(wǎng)



小結(jié):

隨著英偉達對 SOCAMM 內(nèi)存模塊的大規(guī)模部署,以及其在 AI 服務(wù)器和 PC 市場的逐步滲透,將推動整個 AI 產(chǎn)業(yè)鏈圍繞這一新型內(nèi)存技術(shù)進行升級和發(fā)展。無論是內(nèi)存廠商、PCB電路板廠商,還是服務(wù)器制造商和終端用戶,都將受益于SOCAMM帶來的影響。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    內(nèi)存要取代GPU?HBM之父警告:以英偉GPU為核心的架構(gòu)要被顛覆

    主板和CPU成為了主角。 ? 而最近“HBM之父”金正浩教授也語出驚人,提出未來內(nèi)存將成為主角:“GPU和CPU將會被集成到內(nèi)存HBM和HBF)里,淪為
    的頭像 發(fā)表于 04-03 09:54 ?6425次閱讀
    <b class='flag-5'>內(nèi)存</b>要取代GPU?<b class='flag-5'>HBM</b>之父警告:以<b class='flag-5'>英偉</b><b class='flag-5'>達</b>GPU為核心的架構(gòu)要被<b class='flag-5'>顛覆</b>

    GPU猛獸襲來!HBM4、AI服務(wù)器徹底引爆!

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)日前,多家服務(wù)器廠商表示因AI服務(wù)器需求高漲拉高業(yè)績增長。隨著AI服務(wù)器需求旺盛,以及
    的頭像 發(fā)表于 06-02 06:54 ?6971次閱讀

    邊緣AI算力臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    AI服務(wù)器) 這形態(tài)應(yīng)運而生。它需要在極小體積內(nèi),提供接近服務(wù)器級的AI吞吐能力,同時具備工業(yè)級的接口擴展性。 OrangePi
    發(fā)表于 03-10 14:19

    普通服務(wù)器電源與AI服務(wù)器電源的區(qū)別(上)

    普通服務(wù)器電源與AI服務(wù)器電源的區(qū)別,為相關(guān)測試及應(yīng)用工作提供參考。輸出電壓精度方面的區(qū)別輸出電壓精度是服務(wù)器電源的關(guān)鍵指標(biāo)之。普通
    的頭像 發(fā)表于 01-12 09:31 ?1338次閱讀
    普通<b class='flag-5'>服務(wù)器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源的區(qū)別(上)

    羅姆強勢入局AI服務(wù)器800VDC電源方案 原創(chuàng)

    % 。 AI 訓(xùn)練耗電量是網(wǎng)絡(luò)搜索的 10 倍以上 。 AI 服務(wù)器 GPU 性能增長的同時功率持續(xù)飆升。以 英偉 為例,其 GPU 的
    的頭像 發(fā)表于 12-13 00:25 ?8634次閱讀

    羅姆強勢入局AI服務(wù)器800VDC電源方案

    的10倍以上。 ? AI服務(wù)器GPU性能增長的同時功率持續(xù)飆升。以英偉為例,其GPU的TDP熱設(shè)計功耗從H100的700W,攀升至B300的1.4KW,明年VR200將
    的頭像 發(fā)表于 12-12 15:42 ?5324次閱讀
    羅姆強勢入局<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>800VDC電源方案

    AI時代,服務(wù)器存儲如何升級?

    邊是基于Darkmont的至強6+蓄勢待發(fā),另邊是基于Zen 6的EPYC Venice摩拳擦掌,海量GPU并行計算的AI服務(wù)器正在醞釀
    的頭像 發(fā)表于 11-03 13:11 ?871次閱讀

    對話|AI服務(wù)器電源對磁性元件提出的新需求

    尚未拉開,整體處于同起跑線。 面對AI服務(wù)器電源向“三高”——高功率密度、高效率、高可靠性發(fā)展的趨勢,AI服務(wù)器電源產(chǎn)業(yè)鏈各環(huán)節(jié)——無論是
    的頭像 發(fā)表于 10-11 14:55 ?1192次閱讀
    對話|<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源對磁性元件提出的新需求

    英偉戰(zhàn)略轉(zhuǎn)向:棄用SOCAMM1,全力推進SOCAMM2項目

    的開發(fā)中。這戰(zhàn)略調(diào)整猶如顆投入平靜湖面的巨石,在AI服務(wù)器內(nèi)存市場乃至整個半導(dǎo)體產(chǎn)業(yè)激起千層浪。 ? SOCAMM技術(shù)自誕生起,便被
    的頭像 發(fā)表于 09-17 17:34 ?919次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    的我我們講解了這幾種芯片的應(yīng)用場景,設(shè)計流程、結(jié)構(gòu)等。 CPU: 還為我們講解了種算法:哈希表算法 GPU: 介紹了英偉H100GPU芯片。使用了下關(guān)鍵技術(shù): ①張量
    發(fā)表于 09-12 16:07

    英偉自研HBM基礎(chǔ)裸片

    "后的下AI GPU "Feynman"。 ? 有分析指出,英偉此舉或是將部分GPU功能集成到基礎(chǔ)裸片中,旨在提高HBM和GPU的整體
    的頭像 發(fā)表于 08-21 08:16 ?2987次閱讀

    AI服務(wù)器電源技術(shù)研討會部分演講嘉賓確認

    AI服務(wù)器電源是2025-2026年AI硬件確定的增量,英偉超級芯片GB200功率到2700W,是傳統(tǒng)
    的頭像 發(fā)表于 06-24 10:07 ?1360次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源技術(shù)研討會部分演講嘉賓確認

    AI 服務(wù)器電源如何迭代升級?

    AI 算力需求增長的今天,AI 服務(wù)器電源正陷入 “性能瓶頸與國產(chǎn)替代并行、場景適配與技術(shù)創(chuàng)新交織” 的雙重挑戰(zhàn)。 由Big-Bit商務(wù)網(wǎng)、廣東省磁性元器件行業(yè)協(xié)會主辦的2025中國電子熱點
    的頭像 發(fā)表于 06-23 14:51 ?1639次閱讀

    總功率超198kW,AI服務(wù)器電源對元器件提出了哪些要求?

    芯片GB200功率到2700W,是傳統(tǒng)服務(wù)器電源的5-7倍,但其面臨的挑戰(zhàn)同樣不小。 超高功率需求與空間限制。 AI服務(wù)器(如搭載英偉Bl
    的頭像 發(fā)表于 06-17 10:36 ?1475次閱讀
    總功率超198kW,<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源對元器件提出了哪些要求?

    比肩HBM,SOCAMM內(nèi)存模組即將商業(yè)化

    參數(shù)規(guī)模數(shù)百億甚至萬億級別,帶來巨大內(nèi)存需求,但HBM內(nèi)存價格高昂,只應(yīng)用在高端算力卡上。SOCAMM則有望應(yīng)用于AI
    的頭像 發(fā)表于 05-17 01:15 ?4220次閱讀
    晋中市| 商洛市| 云安县| 剑阁县| 沙洋县| 黑龙江省| 临泉县| 石家庄市| 巴中市| 明光市| 冕宁县| 阜新市| 广元市| 黑龙江省| 南江县| 杭锦后旗| 利川市| 裕民县| 常山县| 韶关市| 吕梁市| 闽侯县| 天等县| 黄陵县| 南和县| 瑞安市| 洪湖市| 铜梁县| 安康市| 延边| 长子县| 会昌县| 三亚市| 绥江县| 屏东市| 河津市| 屯留县| 新绛县| 扎鲁特旗| 峡江县| 临清市|