哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊 AI Lab 開源世界首款自動(dòng)化模型壓縮框架PocketFlow

羅欣 ? 來源:AI科技評(píng)論 ? 作者:佚名 ? 2018-09-18 11:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI科技評(píng)論按:騰訊 AI Lab 機(jī)器學(xué)習(xí)中心今日宣布成功研發(fā)出世界上首款自動(dòng)化深度學(xué)習(xí)模型壓縮框架—— PocketFlow,并即將在近期發(fā)布開源代碼。根據(jù)雷鋒網(wǎng)AI科技評(píng)論了解,這是一款面向移動(dòng)端AI開發(fā)者的自動(dòng)模型壓縮框架,集成了當(dāng)前主流的模型壓縮與訓(xùn)練算法,結(jié)合自研超參數(shù)優(yōu)化組件實(shí)現(xiàn)了全程自動(dòng)化托管式的模型壓縮與加速。開發(fā)者無需了解具體算法細(xì)節(jié),即可快速地將AI技術(shù)部署到移動(dòng)端產(chǎn)品上,實(shí)現(xiàn)用戶數(shù)據(jù)的本地高效處理。

隨著AI技術(shù)的飛速發(fā)展,越來越多的公司希望在自己的移動(dòng)端產(chǎn)品中注入AI能力,但是主流的深度學(xué)習(xí)模型往往對(duì)計(jì)算資源要求較高,難以直接部署到消費(fèi)級(jí)移動(dòng)設(shè)備中。在這種情況下,眾多模型壓縮與加速算法應(yīng)運(yùn)而生,能夠在較小的精度損失(甚至無損)下,有效提升 CNN 和 RNN 等網(wǎng)絡(luò)結(jié)構(gòu)的計(jì)算效率,從而使得深度學(xué)習(xí)模型在移動(dòng)端的部署成為可能。但是,如何根據(jù)實(shí)際應(yīng)用場景,選擇合適的模型壓縮與加速算法以及相應(yīng)的超參數(shù)取值,往往需要較多的專業(yè)知識(shí)和實(shí)踐經(jīng)驗(yàn),這無疑提高了這項(xiàng)技術(shù)對(duì)于一般開發(fā)者的使用門檻。

在此背景下,騰訊AI Lab機(jī)器學(xué)習(xí)中心研發(fā)了 PocketFlow 開源框架,以實(shí)現(xiàn)自動(dòng)化的深度學(xué)習(xí)模型壓縮與加速,助力AI技術(shù)在更多移動(dòng)端產(chǎn)品中的廣泛應(yīng)用。通過集成多種深度學(xué)習(xí)模型壓縮算法,并創(chuàng)新性地引入超參數(shù)優(yōu)化組件,極大地提升了模型壓縮技術(shù)的自動(dòng)化程度。開發(fā)者無需介入具體的模型壓縮算法及其超參數(shù)取值的選取,僅需指定設(shè)定期望的性能指標(biāo),即可通過 PocketFlow 得到符合需求的壓縮模型,并快速部署到移動(dòng)端應(yīng)用中。

框架介紹

PocketFlow 框架主要由兩部分組件構(gòu)成,分別是模型壓縮/加速算法組件和超參數(shù)優(yōu)化組件,具體結(jié)構(gòu)如下圖所示。

開發(fā)者將未壓縮的原始模型作為 PocketFlow 框架的輸入,同時(shí)指定期望的性能指標(biāo),例如模型的壓縮和/或加速倍數(shù);在每一輪迭代過程中,超參數(shù)優(yōu)化組件選取一組超參數(shù)取值組合,之后模型壓縮/加速算法組件基于該超參數(shù)取值組合,對(duì)原始模型進(jìn)行壓縮,得到一個(gè)壓縮后的候選模型;基于對(duì)候選模型進(jìn)行性能評(píng)估的結(jié)果,超參數(shù)優(yōu)化組件調(diào)整自身的模型參數(shù),并選取一組新的超參數(shù)取值組合,以開始下一輪迭代過程;當(dāng)?shù)K止時(shí),PocketFlow 選取最優(yōu)的超參數(shù)取值組合以及對(duì)應(yīng)的候選模型,作為最終輸出,返回給開發(fā)者用作移動(dòng)端的模型部署。

具體地,PocketFlow 通過下列各個(gè)算法組件的有效結(jié)合,實(shí)現(xiàn)了精度損失更小、自動(dòng)化程度更高的深度學(xué)習(xí)模型的壓縮與加速:

a) 通道剪枝(channel pruning)組件:在CNN網(wǎng)絡(luò)中,通過對(duì)特征圖中的通道維度進(jìn)行剪枝,可以同時(shí)降低模型大小和計(jì)算復(fù)雜度,并且壓縮后的模型可以直接基于現(xiàn)有的深度學(xué)習(xí)框架進(jìn)行部署。在CIFAR-10圖像分類任務(wù)中,通過對(duì) ResNet-56 模型進(jìn)行通道剪枝,可以實(shí)現(xiàn)2.5倍加速下分類精度損失0.4%,3.3倍加速下精度損失0.7%。

b) 權(quán)重稀疏化(weight sparsification)組件:通過對(duì)網(wǎng)絡(luò)權(quán)重引入稀疏性約束,可以大幅度降低網(wǎng)絡(luò)權(quán)重中的非零元素個(gè)數(shù);壓縮后模型的網(wǎng)絡(luò)權(quán)重可以以稀疏矩陣的形式進(jìn)行存儲(chǔ)和傳輸,從而實(shí)現(xiàn)模型壓縮。對(duì)于 MobileNet 圖像分類模型,在刪去50%網(wǎng)絡(luò)權(quán)重后,在 ImageNet 數(shù)據(jù)集上的 Top-1 分類精度損失僅為0.6%。

c) 權(quán)重量化(weight quantization)組件:通過對(duì)網(wǎng)絡(luò)權(quán)重引入量化約束,可以降低用于表示每個(gè)網(wǎng)絡(luò)權(quán)重所需的比特?cái)?shù);團(tuán)隊(duì)同時(shí)提供了對(duì)于均勻和非均勻兩大類量化算法的支持,可以充分利用 ARMFPGA 等設(shè)備的硬件優(yōu)化,以提升移動(dòng)端的計(jì)算效率,并為未來的神經(jīng)網(wǎng)絡(luò)芯片設(shè)計(jì)提供軟件支持。以用于 ImageNet 圖像分類任務(wù)的 ResNet-18 模型為例,在8比特定點(diǎn)量化下可以實(shí)現(xiàn)精度無損的4倍壓縮。

d) 網(wǎng)絡(luò)蒸餾(network distillation)組件:對(duì)于上述各種模型壓縮組件,通過將未壓縮的原始模型的輸出作為額外的監(jiān)督信息,指導(dǎo)壓縮后模型的訓(xùn)練,在壓縮/加速倍數(shù)不變的前提下均可以獲得0.5%-2.0%不等的精度提升。

e) 多GPU訓(xùn)練(multi-GPU training)組件:深度學(xué)習(xí)模型訓(xùn)練過程對(duì)計(jì)算資源要求較高,單個(gè)GPU難以在短時(shí)間內(nèi)完成模型訓(xùn)練,因此團(tuán)隊(duì)提供了對(duì)于多機(jī)多卡分布式訓(xùn)練的全面支持,以加快使用者的開發(fā)流程。無論是基于 ImageNet 數(shù)據(jù)的Resnet-50圖像分類模型還是基于 WMT14 數(shù)據(jù)的 Transformer 機(jī)器翻譯模型,均可以在一個(gè)小時(shí)內(nèi)訓(xùn)練完畢。[1]

f) 超參數(shù)優(yōu)化(hyper-parameter optimization)組件:多數(shù)開發(fā)者對(duì)模型壓縮算法往往不甚了解,但超參數(shù)取值對(duì)最終結(jié)果往往有著巨大的影響,因此團(tuán)隊(duì)引入了超參數(shù)優(yōu)化組件,采用了包括強(qiáng)化學(xué)習(xí)等算法以及 AI Lab 自研的 AutoML 自動(dòng)超參數(shù)優(yōu)化框架來根據(jù)具體性能需求,確定最優(yōu)超參數(shù)取值組合。例如,對(duì)于通道剪枝算法,超參數(shù)優(yōu)化組件可以自動(dòng)地根據(jù)原始模型中各層的冗余程度,對(duì)各層采用不同的剪枝比例,在保證滿足模型整體壓縮倍數(shù)的前提下,實(shí)現(xiàn)壓縮后模型識(shí)別精度的最大化。

性能展示

通過引入超參數(shù)優(yōu)化組件,不僅避免了高門檻、繁瑣的人工調(diào)參工作,同時(shí)也使得 PocketFlow 在各個(gè)壓縮算法上全面超過了人工調(diào)參的效果。以圖像分類任務(wù)為例,在 CIFAR-10 和 ImageNet 等數(shù)據(jù)集上, PocketFlow 對(duì) ResNet 和 MobileNet 等多種 CNN 網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行有效的模型壓縮與加速。[1]

在 CIFAR-10 數(shù)據(jù)集上,PocketFlow 以 ResNet-56 作為基準(zhǔn)模型進(jìn)行通道剪枝,并加入了超參數(shù)優(yōu)化和網(wǎng)絡(luò)蒸餾等訓(xùn)練策略,實(shí)現(xiàn)了2.5倍加速下分類精度損失0.4%,3.3倍加速下精度損失0.7%,且顯著優(yōu)于未壓縮的ResNet-44模型; [2] 在 ImageNet 數(shù)據(jù)集上,PocketFlow 可以對(duì)原本已經(jīng)十分精簡的 MobileNet 模型繼續(xù)進(jìn)行權(quán)重稀疏化,以更小的模型尺寸取得相似的分類精度;與 Inception-V1 、ResNet-18 等模型相比,模型大小僅為后者的約20~40%,但分類精度基本一致(甚至更高)。

相比于費(fèi)時(shí)費(fèi)力的人工調(diào)參,PocketFlow 框架中的 AutoML 自動(dòng)超參數(shù)優(yōu)化組件僅需10余次迭代就能達(dá)到與人工調(diào)參類似的性能,在經(jīng)過100次迭代后搜索得到的超參數(shù)組合可以降低約0.6%的精度損失;通過使用超參數(shù)優(yōu)化組件自動(dòng)地確定網(wǎng)絡(luò)中各層權(quán)重的量化比特?cái)?shù),PocketFlow 在對(duì)用于 ImageNet 圖像分類任務(wù)的ResNet-18模型進(jìn)行壓縮時(shí),取得了一致性的性能提升;當(dāng)平均量化比特?cái)?shù)為4比特時(shí),超參數(shù)優(yōu)化組件的引入可以將分類精度從63.6%提升至68.1%(原始模型的分類精度為70.3%)。

深度學(xué)習(xí)模型的壓縮與加速是當(dāng)前學(xué)術(shù)界的研究熱點(diǎn)之一,同時(shí)在工業(yè)界中也有著廣泛的應(yīng)用前景。隨著PocketFlow的推出,開發(fā)者無需了解模型壓縮算法的具體細(xì)節(jié),也不用關(guān)心各個(gè)超參數(shù)的選擇與調(diào)優(yōu),即可基于這套自動(dòng)化框架,快速得到可用于移動(dòng)端部署的精簡模型,從而為AI能力在更多移動(dòng)端產(chǎn)品中的應(yīng)用鋪平了道路。

參考文獻(xiàn)

[1] Zhuangwei Zhuang, Mingkui Tan, Bohan Zhuang, Jing Liu, Jiezhang Cao, Qingyao Wu, Junzhou Huang, Jinhui Zhu, “Discrimination-aware Channel Pruning for Deep Neural Networks", In Proc. of the 32nd Annual Conference on Neural Information Processing Systems, NIPS '18, Montreal, Canada, December 2018.

[2] Jiaxiang Wu, Weidong Huang, Junzhou Huang, Tong Zhang, “Error Compensated Quantized SGD and its Applications to Large-scale Distributed Optimization”, In Proc. of the 35th International Conference on Machine Learning, ICML ’18, Stockholm, Sweden, July 2018.

本文來源:AI科技評(píng)論

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40820

    瀏覽量

    302427
  • 騰訊
    +關(guān)注

    關(guān)注

    7

    文章

    1685

    瀏覽量

    50988
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    大曉機(jī)器人開源實(shí)時(shí)生成世界模型Kairos 3.0-4B

    近日,大曉機(jī)器人重磅開源開悟世界模型3.0(Kairos 3.0)-4B 系列具身原生世界模型。作為業(yè)內(nèi)首個(gè)實(shí)現(xiàn) “多模態(tài)理解 — 生成 —
    的頭像 發(fā)表于 03-14 16:54 ?1972次閱讀
    大曉機(jī)器人<b class='flag-5'>開源</b>實(shí)時(shí)生成<b class='flag-5'>世界</b><b class='flag-5'>模型</b>Kairos 3.0-4B

    如何構(gòu)建適合自動(dòng)駕駛的世界模型?

    [首發(fā)于智駕最前沿微信公眾號(hào)]世界模型經(jīng)歷了系統(tǒng)動(dòng)力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動(dòng)駕駛汽車上,還是近幾年才
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動(dòng)</b>駕駛的<b class='flag-5'>世界</b><b class='flag-5'>模型</b>?

    嵌入式軟件單元測試中AI自動(dòng)化與人工檢查的協(xié)同機(jī)制研究:基于專業(yè)工具的實(shí)證分析

    ) 12,000 LOC 6.5周 ? 2.1% ? ? 96% ? ?關(guān)鍵發(fā)現(xiàn)?: AI自動(dòng)化將測試周期壓縮60%,但?缺陷逃逸率翻倍?(組B vs A); 引入人工復(fù)核后,逃逸率下降
    發(fā)表于 12-31 11:22

    世界模型是讓自動(dòng)駕駛汽車?yán)斫?b class='flag-5'>世界還是預(yù)測未來?

    ? [首發(fā)于智駕最前沿微信公眾號(hào)]世界模型自動(dòng)駕駛技術(shù)中已有廣泛應(yīng)用。但當(dāng)談及它對(duì)自動(dòng)駕駛的作用時(shí),難免會(huì)出現(xiàn)分歧。它到底是讓自動(dòng)駕駛汽車
    的頭像 發(fā)表于 12-16 09:27 ?990次閱讀
    <b class='flag-5'>世界</b><b class='flag-5'>模型</b>是讓<b class='flag-5'>自動(dòng)</b>駕駛汽車?yán)斫?b class='flag-5'>世界</b>還是預(yù)測未來?

    如何利用NPU與模型壓縮技術(shù)優(yōu)化邊緣AI

    ,AI 模型體積龐大,部署在 NPU上常常面臨困難,這凸顯了模型壓縮技術(shù)的重要性。要實(shí)現(xiàn)高效的實(shí)時(shí)邊緣 AI,需要深入探討NPU 與
    的頭像 發(fā)表于 11-07 15:26 ?1382次閱讀
    如何利用NPU與<b class='flag-5'>模型</b><b class='flag-5'>壓縮</b>技術(shù)優(yōu)化邊緣<b class='flag-5'>AI</b>

    NVIDIA 利用全新開源模型與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    。 ? 借助全新的 NVIDIA Cosmos 世界基礎(chǔ)模型,開發(fā)者可以生成多樣數(shù)據(jù),從而大規(guī)模加速物理 AI 模型的訓(xùn)練。 ? 來自斯
    的頭像 發(fā)表于 09-30 09:52 ?3182次閱讀
    NVIDIA 利用全新<b class='flag-5'>開源</b><b class='flag-5'>模型</b>與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    NVIDIA Isaac Lab多GPU多節(jié)點(diǎn)訓(xùn)練指南

    NVIDIA Isaac Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源統(tǒng)一框架,基于 NVIDIA Isaac Sim 開發(fā),其模塊高保真仿真適用于各種訓(xùn)練環(huán)境,可提供各種物理
    的頭像 發(fā)表于 09-23 17:15 ?2593次閱讀
    NVIDIA Isaac <b class='flag-5'>Lab</b>多GPU多節(jié)點(diǎn)訓(xùn)練指南

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    主要步驟: ①溯因②假說③實(shí)驗(yàn) 1、科學(xué)推理的類型 ①演繹②歸納 2、自動(dòng)化科學(xué)發(fā)現(xiàn)框架 AI-笛卡兒-----自動(dòng)化科學(xué)發(fā)現(xiàn)框架,利用數(shù)
    發(fā)表于 09-17 11:45

    Arm率先適配騰訊混元開源模型,助力端側(cè)AI創(chuàng)新開發(fā)

    本周初,騰訊混元宣布開源小尺寸模型(參數(shù)分別為 0.5B、1.8B、4B、7B),可無縫運(yùn)行于消費(fèi)級(jí)顯卡上。作為全球應(yīng)用范圍最為廣泛的計(jì)算平臺(tái),Arm 在
    的頭像 發(fā)表于 08-08 09:16 ?1508次閱讀
    Arm率先適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開源</b><b class='flag-5'>模型</b>,助力端側(cè)<b class='flag-5'>AI</b>創(chuàng)新開發(fā)

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    今日,騰訊正式發(fā)布新一代混元開源大語言模型。英特爾憑借在人工智能領(lǐng)域的全棧技術(shù)布局,現(xiàn)已在英特爾? 酷睿? Ultra 平臺(tái)上完成針對(duì)該模型的第零日(Day 0)部署與性能優(yōu)化。值得一
    的頭像 發(fā)表于 08-07 14:42 ?1497次閱讀
    硬件與應(yīng)用同頻共振,英特爾Day 0適配<b class='flag-5'>騰訊</b><b class='flag-5'>開源</b>混元大<b class='flag-5'>模型</b>

    自動(dòng)化測試平臺(tái)ATECLOUD推出AI算法功能

    作為納米軟件自主研發(fā)的自動(dòng)化測試平臺(tái),ATECLOUD 始終致力于為用戶提供高效優(yōu)質(zhì)的測試解決方案。面對(duì)5G、AI等前沿技術(shù)的迭代發(fā)展,平臺(tái)深度融合新技術(shù)持續(xù)升級(jí)測試能力,最新推出的AI算法功能更在
    的頭像 發(fā)表于 07-22 16:10 ?959次閱讀
    <b class='flag-5'>自動(dòng)化</b>測試平臺(tái)ATECLOUD推出<b class='flag-5'>AI</b>算法功能

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    生成比傳統(tǒng)框架(如 TensorFlow、PyTorch 等)小 10 倍的模型,模型體積可低至個(gè)位數(shù) KB,并且推理速度更快、功耗更低。此次收購將 Neuton 的自動(dòng)化 TinyM
    發(fā)表于 06-28 14:18

    APP自動(dòng)化測試框架

    APP自動(dòng)化測試框架是一套結(jié)合工具鏈、設(shè)計(jì)模式和技術(shù)規(guī)范的集成解決方案。以下是基于主流技術(shù)實(shí)踐的核心要點(diǎn)總結(jié): 一、核心模塊構(gòu)成 環(huán)境管理? 支持物理機(jī)/虛擬機(jī)/容器部署,集成ADB、Appium
    的頭像 發(fā)表于 05-07 07:35 ?784次閱讀
    APP<b class='flag-5'>自動(dòng)化</b>測試<b class='flag-5'>框架</b>

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    集成于同一硬件平臺(tái)。內(nèi)置RISC-V AI核,接入ONNXRuntime加速框架,可快速部署Transformer、CNN等主流算法,實(shí)現(xiàn)視覺跟蹤、語音交互與自主決策的一體應(yīng)用。 低門檻開發(fā) 提供
    發(fā)表于 04-25 17:59

    概倫電子目標(biāo)驅(qū)動(dòng)模型提取自動(dòng)化平臺(tái)SDEP介紹

    SDEP是一具有創(chuàng)新性的半導(dǎo)體器件SPICE模型提取自動(dòng)化平臺(tái),平臺(tái)內(nèi)配備功能強(qiáng)大、內(nèi)容豐富的API,支持用戶根據(jù)模型經(jīng)驗(yàn)和實(shí)際需要搭建可重復(fù)使用與不斷優(yōu)化的
    的頭像 發(fā)表于 04-16 09:30 ?963次閱讀
    概倫電子目標(biāo)驅(qū)動(dòng)<b class='flag-5'>模型</b>提取<b class='flag-5'>自動(dòng)化</b>平臺(tái)SDEP介紹
    磐石市| 鄂托克前旗| 保山市| 普定县| 长葛市| 大兴区| 南部县| 公主岭市| 平谷区| 泌阳县| 武强县| 盐亭县| 东海县| 芒康县| 淮南市| 陕西省| 崇左市| 阜城县| 河池市| 江华| 犍为县| 西城区| 凤阳县| 南江县| 沙河市| 济源市| 桐梓县| 凤山市| 晋中市| 浦江县| 青岛市| 沙洋县| 吴川市| 泸定县| 陆良县| 台中市| 无极县| 赤峰市| 二连浩特市| 高唐县| 宜昌市|