華為技術(shù)有限公司宣布旗下 ModelEngine AI 平臺(tái)全面支持 DeepSeek 大模型 R1&V3 和蒸餾系列模型的本地部署與優(yōu)化,在 AI 領(lǐng)域引發(fā)廣泛關(guān)注。
華為 ModelEngine 是大模型訓(xùn)練、推理和應(yīng)用開(kāi)發(fā)的 AI 平臺(tái),提供從數(shù)據(jù)預(yù)處理到模型訓(xùn)練、優(yōu)化及部署的一站式服務(wù)。此次基于昇騰 AI 芯片,ModelEngine 通過(guò)推理框架優(yōu)化和 MoE 存算協(xié)同,提供動(dòng)態(tài)換入換出和全局統(tǒng)一緩存,實(shí)現(xiàn)推理高并發(fā)和低時(shí)延,讓用戶能更好地體驗(yàn) DeepSeek 的推理能力。
對(duì)于開(kāi)發(fā)者而言,這一支持意義重大。ModelEngine 全面兼容 DeepSeek 系列模型 R1&V3 671B 以及蒸餾系列模型,開(kāi)發(fā)者借助它可實(shí)現(xiàn) “一鍵部署”,免去硬件選型、兼容性驗(yàn)證和環(huán)境配置等繁瑣流程,極大降低企業(yè) AI 應(yīng)用門(mén)檻。并且,ModelEngine 高度的開(kāi)放性和模塊化設(shè)計(jì),大幅縮短了 DeepSeek 的本地部署時(shí)間。
在實(shí)際操作上,以 DeepSeek-R1 為例,開(kāi)發(fā)者登錄 ModelEngine 模型管理頁(yè)面,上傳 DeepSeek-R1 FP8 權(quán)重并進(jìn)行格式轉(zhuǎn)換,在模型服務(wù)頁(yè)面選擇 BF16 精度的模型權(quán)重版本下發(fā)推理服務(wù)、啟動(dòng)任務(wù)部署,隨后 ModelEngine 使用 MindIE 推理框架啟動(dòng) DeepSeek-R1 推理服務(wù),支持 OpenAI API 調(diào)用風(fēng)格的推理服務(wù)接口和訪問(wèn)方式,用戶便可將該 API 集成到對(duì)話、RAG 以及 Agent 應(yīng)用中。
不僅如此,ModelEngine 還提供負(fù)載均衡、模型安全接入、多用戶配額管理等高階特性,支持大規(guī)模生產(chǎn)環(huán)境下的穩(wěn)定運(yùn)行。某證券公司引入 DCS AI 全棧解決方案后,運(yùn)維成本降低 42%,便是有力證明。
-
華為
+關(guān)注
關(guān)注
218文章
36173瀏覽量
262652 -
AI
+關(guān)注
關(guān)注
91文章
40982瀏覽量
302534 -
DeepSeek
+關(guān)注
關(guān)注
2文章
837瀏覽量
3395
發(fā)布評(píng)論請(qǐng)先 登錄
技嘉與趨境科技聯(lián)合部署AMaaS平臺(tái) 推動(dòng)本地大模型應(yīng)用加速落地
本地搭建 Clawdbot + ZeroNews 訪問(wèn)
如何在ZYNQ本地部署DeepSeek模型
從云端到邊緣:聯(lián)發(fā)科MT8371/MT8391平臺(tái)實(shí)現(xiàn)7B大模型本地部署
中科曙光AI超集群系統(tǒng)和scaleX640超節(jié)點(diǎn)等產(chǎn)品全面適配DeepSeek V3.2
工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有本地部署還是云端部署?
DeepSeek模型如何在云服務(wù)器上部署?
曙光AI超集群系統(tǒng)全面支持DeepSeek-V3.2-Exp
本地部署openWebUI + ollama+DeepSeek 打造智能知識(shí)庫(kù)并實(shí)現(xiàn)遠(yuǎn)程訪問(wèn)
信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代
RT-Thread BSP全面支持玄鐵全系列RISC-V 處理器 | 技術(shù)集結(jié)
Arm Neoverse N2平臺(tái)實(shí)現(xiàn)DeepSeek-R1滿血版部署
ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開(kāi)發(fā)板本地部署DeepSeek大模型的完整指南
華為ModelEngine AI平臺(tái)全面支持DeepSeek全系列本地部署
評(píng)論