哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

輕量級視覺模型設(shè)計的新啟發(fā)

云天勵飛 ? 來源:云天勵飛 ? 作者:云天勵飛 ? 2022-07-28 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

計算機(jī)視覺兩大門派功力合體,給移動端視覺任務(wù)減負(fù)增速。

當(dāng)下,計算機(jī)視覺領(lǐng)域最熱議的方向,莫過于近兩年越來越火的視覺Transformer(ViT)和傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(ConvNet),誰才能主宰計算機(jī)視覺的未來?

風(fēng)頭正盛的ViT,是計算機(jī)視覺領(lǐng)域過去十年最矚目的研究突破之一。2020年,谷歌視覺大模型Vision Transformer(ViT)橫空出世,憑借碾壓各路ConvNet的性能表現(xiàn),一舉掀起Transformer在計算機(jī)視覺領(lǐng)域的研究熱潮。

但“ConvNet派”還沒到低頭認(rèn)輸?shù)臅r候。2022年1月,Meta AI研究院、加州大學(xué)伯克利分校的研究人員發(fā)表了卷積神經(jīng)網(wǎng)絡(luò)的“扛鼎之作”——ConvNeXt,基于純ConvNet新架構(gòu),取得了超過先進(jìn)ViT的計算速度和精度。

6804b1ee-0e14-11ed-ba43-dac502259ad0.png

▲ConvNet與ViT模型圖像分類實驗結(jié)果對比

ViT論文:https://arxiv.org/abs/2010.11929

ConvNeXt論文:https://arxiv.org/abs/2201.03545

那如果將這兩類模型的優(yōu)勢互補(bǔ),會不會產(chǎn)生1+1》2的效果?

近日,基于這一思路的論文《ParC-Net:繼承ConvNet和Transformer優(yōu)點的位置敏感的循環(huán)卷積》入選了計算機(jī)視覺頂會ECCV 2022,并引發(fā)國內(nèi)外廣泛關(guān)注。

這篇論文提出了一種面向移動端、融入ViT優(yōu)點的純卷積結(jié)構(gòu)模型ParC-Net,能以更小的參數(shù)量,在常見視覺任務(wù)中實現(xiàn)比主流輕量級ConvNet更好的性能。

68108d5c-0e14-11ed-ba43-dac502259ad0.png

▲ParC-Net在三種視覺任務(wù)實驗中均以更小參數(shù)量取得最佳性能表現(xiàn)

值得一提的是,論文提出一種既有全局感受野、又對位置信息保持敏感的基礎(chǔ)卷積算子ParC,它能與現(xiàn)有主流網(wǎng)絡(luò)結(jié)構(gòu)融合,兼顧模型性能和計算速度的提升,相關(guān)代碼現(xiàn)已開源。

具體是怎么實現(xiàn)的?我們聯(lián)系到論文第一作者張?zhí)栧硬┦?,并與其進(jìn)行深入交流。

ParC論文:https://arxiv.org/abs/2203.03952

源代碼:https://github.com/hkzhang91/ParC-Net

01.

取ViT的三個亮點,將純卷積結(jié)構(gòu)變強(qiáng)

在計算機(jī)視覺領(lǐng)域,ViT模型性能彪悍,門檻和成本卻驚人,無論是龐大數(shù)據(jù)量,還是超高算力需求,都離不開“鈔能力”的支撐。

相比之下,輕量級ConvNet雖然性能難以與ViT媲美,但具有易訓(xùn)練、參數(shù)量少、計算成本低、推理速度快等優(yōu)勢,對硬件資源的需求不像ViT那么受限,可部署在各種移動或邊緣計算設(shè)備上。此前較流行的輕量級ConvNet有ShuffleNet、MobileNet、EfficientNet、TinyNet等等。

經(jīng)對比,云天勵飛的研究人員借鑒ViT的優(yōu)點,基于卷積結(jié)構(gòu)設(shè)計了一個輕量級骨干模型ParC-Net。

論文作者認(rèn)為,ViT和ConvNet有三個主要區(qū)別:ViT更擅長提取全局特征,采用meta-former結(jié)構(gòu),而且信息集成由數(shù)據(jù)驅(qū)動。ParC的設(shè)計思路便是從這三點著手來優(yōu)化ConvNet。

6826304e-0e14-11ed-ba43-dac502259ad0.png

▲普通ConvNet和ViT之間的三個主要區(qū)別。(a) ConvNet常用的Residual block;(b) ViT中常用的Meta-Former 結(jié)構(gòu);(c) 本文提出的ParC block。

具體而言,研究人員設(shè)計了一種位置信息敏感的循環(huán)卷積(Position aware circular convolution, ParC)。這是一種簡單有效的輕量卷積運算算子,既擁有像ViT類結(jié)構(gòu)的全局感受野,同時產(chǎn)生了像局部卷積那樣的位置敏感特征,能克服依賴自注意力結(jié)構(gòu)提取全局特征的問題。

ParC結(jié)構(gòu)主要包含三部分改動:1)結(jié)合circular padding和大感受野低秩分解卷積核提取全局特征;2)引入位置嵌入,保證輸出特征對于空間位置信息的敏感性;3)動態(tài)插值實時生成尺寸適配的卷積核和位置編碼,應(yīng)對輸入分辨率變化情況,這增強(qiáng)了對不同尺寸輸入的適應(yīng)能力。

6834f4a8-0e14-11ed-ba43-dac502259ad0.png

▲ParC結(jié)構(gòu)示例

研究人員還將ParC和squeeze exictation(SE)操作結(jié)合起來,構(gòu)建了一個純卷積結(jié)構(gòu)的meta former結(jié)構(gòu)。該結(jié)構(gòu)舍棄了自注意力硬件支持不友好的操作,但保留了傳統(tǒng)Transformer塊提取全局特征的特點。

然后,研究人員在channel mixer部分引入硬件支持較友好的通道注意力機(jī)制,使其純卷積meta former結(jié)構(gòu)也具備自注意力的特點。

基于ParC結(jié)構(gòu)最終得到的ParC塊,可作為一個即插即用的基礎(chǔ)單元,替換現(xiàn)有ViT或ConvNet模型中的相關(guān)塊,從而提升精度,并降低計算成本,有效克服硬件支持的問題。

683fad62-0e14-11ed-ba43-dac502259ad0.png

▲ParC實驗結(jié)果

02.

三大視覺任務(wù)表現(xiàn)出色 多項指標(biāo)打敗蘋果MobileViT

“據(jù)我們所知,這是第一次嘗試結(jié)合ConvNet和ViT的優(yōu)點來設(shè)計一個輕量級Pure-ConvNet的結(jié)構(gòu)?!闭撐淖髡呷绱嗣枋鯬arC-Net的開創(chuàng)性。

實驗結(jié)果表明,在圖像分類、物體檢測、語義分割這三類常見的視覺任務(wù)中,混合結(jié)構(gòu)的模型性能表現(xiàn)普遍高于當(dāng)前主流的一些純卷積結(jié)構(gòu)、ViT結(jié)構(gòu)的模型,其中ParC-Net模型取得了最好的整體性能表現(xiàn)。

68550856-0e14-11ed-ba43-dac502259ad0.png

▲對于ImageNet-1k的圖像分類實驗結(jié)果

在圖像分類實驗中,對于ImageNet-1k的分類,ParC-Net使用的參數(shù)規(guī)模最?。ù蠹s500萬個參數(shù)),卻實現(xiàn)了最高準(zhǔn)確率78.6%。

MobileViT是蘋果公司2022年在國際深度學(xué)習(xí)頂會ICLR22上提出的輕量級通用ViT模型。同樣部署在基于Arm瑞芯微RK3288芯片上,相較基線模型MobileViT,ParC-Net節(jié)省了11%的參數(shù)和13%的計算成本,同時準(zhǔn)確率提高了0.2%,推理速度提高了23%。

6863bc5c-0e14-11ed-ba43-dac502259ad0.png

▲與基準(zhǔn)模型的推理速度對比

與基于ViT結(jié)構(gòu)的模型相比,ParC-Net的參數(shù)量只有Meta AI團(tuán)隊DeiT模型參數(shù)的一半左右,準(zhǔn)確率卻比DeiT提高了2.7%。

在MS-COCO物體檢測和PASCAL VOC分割任務(wù)中,ParC-Net同樣基于較少的參數(shù),實現(xiàn)了更好的性能、更快的推理速度。

686fb822-0e14-11ed-ba43-dac502259ad0.png

▲MS-COCO物體檢測實驗結(jié)果

688845fe-0e14-11ed-ba43-dac502259ad0.png

▲PASCAL VOC分割任務(wù)實驗結(jié)果

張?zhí)栧硬┦渴荘arC-Net論文的第一作者,現(xiàn)任深圳云天勵飛資深算法研究員,研究領(lǐng)域包括網(wǎng)絡(luò)結(jié)構(gòu)搜索、深度估計、輕量化骨干模型、信息檢索及高光譜圖像分類等。

他告訴智東西,傳統(tǒng)ConvNet可以適應(yīng)視覺任務(wù)中輸入分辨率的變化,而具有全局感受野的純卷積結(jié)構(gòu)的缺陷是卷積核必須跟輸入分辨率保持一致,為了更好應(yīng)對分辨率的變化,其團(tuán)隊正在研究將模型做成動態(tài)卷積的形式,以提高魯棒性。

目前這項研究成果已經(jīng)可以用在算力受限的移動端或邊緣設(shè)備中,實現(xiàn)更高準(zhǔn)確率的視覺任務(wù)。如果進(jìn)行一些小的改動,ParC-Net還可以被用于其他的視覺任務(wù),例如6DOF姿態(tài)評估及其他dense prediction的任務(wù)。

03.

與自研芯片協(xié)同 運算速度可提升快3~4倍

那么ParC-Net模型的研究成果,具體如何在實際業(yè)務(wù)場景中發(fā)揮價值?

據(jù)介紹,一方面,ParC-Net模型可以集成到開源算法訓(xùn)練平臺YMIR中,然后被部署至終端設(shè)備;另一方面,通過與云天勵飛自研芯片協(xié)同,它能將運算速度和精度進(jìn)一步提升。

YMIR是一個高度自動化的AI模型開發(fā)平臺,能做到利用鼠標(biāo)簡單操作就可以完成數(shù)據(jù)收集、模型訓(xùn)練、數(shù)據(jù)挖掘、數(shù)據(jù)標(biāo)注等功能。將擁有高運算效率的ParC-Net模型版本上傳至YMIR后,用戶可在該平臺上直接選用ParC-Net模型,也可以針對具體業(yè)務(wù)場景,添加相應(yīng)的數(shù)據(jù)集對ParC-Net進(jìn)行再訓(xùn)練,從而獲得能更好滿足業(yè)務(wù)需求的模型。

以前有些對精度要求高或者采用ViT結(jié)構(gòu)的移動端視覺任務(wù),受限于計算效率問題,難以在攝像頭設(shè)備或手機(jī)上運行,而上傳到云端做運算,對有較高實時性要求的視覺任務(wù)不是很友好。

ParC-Net則較好地改善了這類問題,在模型精度和推理效率之間實現(xiàn)平衡,使得邊緣設(shè)備可以在本地運行一些對精度要求高的視覺任務(wù)。比如,人臉識別終端設(shè)備可運用ParC-Net直接對路過的人進(jìn)行高質(zhì)量特征值提取,無需將數(shù)據(jù)傳輸?shù)皆贫耍湍芘c數(shù)據(jù)庫進(jìn)行檢索比對。

與云天勵飛自研芯片搭配后,ParC-Net模型的性能表現(xiàn)還能再上一個臺階。

張?zhí)栧硬┦空劦溃鋱F(tuán)隊考慮到軟硬件設(shè)計協(xié)同問題,在研發(fā)之初參考了云天勵飛自研芯片工具鏈的設(shè)計及算子支持情況,然后進(jìn)行模型網(wǎng)絡(luò)結(jié)構(gòu)及算子的設(shè)計,以更好地發(fā)揮出芯片算力。

研究人員將ParC-Net和基線模型MobileVit均部署到自研低功耗芯片DP上進(jìn)行推理速度測試。從實驗結(jié)果可以看到,ParC-Net的推理速度能夠達(dá)到MobileViT速度的3~4倍。

68938162-0e14-11ed-ba43-dac502259ad0.png

▲與基準(zhǔn)模型在不同芯片平臺上的推理速度對比

這也是研究團(tuán)隊決定選擇基于純卷積結(jié)構(gòu)來設(shè)計ParC-Net的原因之一。ConvNet已經(jīng)統(tǒng)治計算機(jī)視覺領(lǐng)域十年之久,而ViT在這一領(lǐng)域興起時間較短,很多現(xiàn)有的神經(jīng)網(wǎng)絡(luò)加速器、硬件優(yōu)化策略,都是圍繞卷積結(jié)構(gòu)設(shè)計。因此部署在移動端時,純ConvNet往往能比ViT享有更好的軟硬件及工具鏈支持,并實現(xiàn)更快的推理速度。

即便搭載在對支持ViT更友好的芯片上,張?zhí)栧硬┦空f,ParC-Net依然能取得比現(xiàn)有其他混合模型更好的性能表現(xiàn)。

絕大多數(shù)視覺任務(wù)可以分為兩類:一類對位置信息不敏感,如圖像分類等;另一類對位置信息較敏感,如物體檢測、3D姿態(tài)估計、AR試穿等。對于這些視覺任務(wù),無論用在智能門禁、手機(jī)識圖還是自動駕駛汽車的攝像頭,ParC-Net都能夠發(fā)揮出其兼顧模型精度和計算效率的優(yōu)勢,并且不會受部署終端設(shè)備配置的限制。

04.

結(jié)語:輕量級視覺模型設(shè)計的新啟發(fā)

當(dāng)前ViT與ConvNet兩大研究方向在計算機(jī)視覺領(lǐng)域旗鼓相當(dāng),ViT在學(xué)術(shù)界四處屠榜,ConvNet則在工業(yè)界主導(dǎo)地位難以撼動,將兩者融合的相關(guān)研究也如雨后春筍般涌現(xiàn)。

此次入選ECCV頂會的ParC-Net模型,既顧及邊緣設(shè)備對模型規(guī)模的限制,基于純卷積結(jié)構(gòu),確保其具備易訓(xùn)練、易部署、推理效率高、硬件更友好等特點,又吸納了ViT的設(shè)計特征,實現(xiàn)比其他ConvNet模型更高的精度。這可以給移動端視覺任務(wù)的模型設(shè)計帶來一些啟發(fā)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4840

    瀏覽量

    108147
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47711
  • 輕量級
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    7612

原文標(biāo)題:媒體關(guān)注丨云天勵飛論文入選ECCV2022,提出輕量級視覺模型新架構(gòu)

文章出處:【微信號:IntelliFusion2,微信公眾號:云天勵飛】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能多模態(tài)與視覺模型開發(fā)實戰(zhàn) - 2026必會

    訓(xùn)練好的模型應(yīng)用到實際場景中。 在部署方面,需要考慮模型的性能、資源消耗和實時性等因素。對于一些對實時性要求較高的應(yīng)用場景,如自動駕駛和安防監(jiān)控,需要采用輕量級模型或進(jìn)行
    發(fā)表于 04-15 16:06

    M0系列高性價比芯片,96M主頻+48M SPI玩轉(zhuǎn)超輕量級GUI設(shè)計

    武漢芯源推出的CW32L012系列芯片,憑借均衡的性能與豐富的外設(shè),高性價比,成為輕量級MCU開發(fā)的熱門選擇?;谠撔酒O(shè)計的CW32L012C8T6評估開發(fā)板,集成屏幕、無線通信、存儲擴(kuò)展等
    的頭像 發(fā)表于 04-02 09:38 ?469次閱讀
    M0系列高性價比芯片,96M主頻+48M SPI玩轉(zhuǎn)超<b class='flag-5'>輕量級</b>GUI設(shè)計

    MQTT協(xié)議技術(shù)白皮書:構(gòu)建物聯(lián)網(wǎng)時代的輕量級通信基石

    Queuing Telemetry Transport)協(xié)議作為一種基于發(fā)布/訂閱模式的輕量級消息傳輸標(biāo)準(zhǔn),憑借其極簡的報文結(jié)構(gòu)、卓越的網(wǎng)絡(luò)適應(yīng)性和強(qiáng)大的解耦能力,已成為全球物聯(lián)網(wǎng)設(shè)備通信的事實標(biāo)準(zhǔn)。本白皮書旨在深入剖析MQTT協(xié)議的核心架構(gòu)、工作機(jī)制、服務(wù)質(zhì)量保障及安全策略,
    的頭像 發(fā)表于 03-27 11:25 ?374次閱讀

    NXP 產(chǎn)品包裝革新:輕量級卷軸的引入

    NXP 產(chǎn)品包裝革新:輕量級卷軸的引入 一、通知概述 NXP 在 2014 年 3 月 30 日發(fā)布了編號為 201403006I 的客戶信息通知,該通知于 2014 年 4 月 30 日生效
    的頭像 發(fā)表于 03-25 14:10 ?210次閱讀

    瑞芯微SOC智能視覺AI處理器

    系統(tǒng)控制和輕量級任務(wù)。NPU: 集成2.0 TOPS的NPU(算力高于RK3568B2),專為AI視覺任務(wù)優(yōu)化。多媒體: 核心特點是強(qiáng)大的視頻解碼能力,支持4K@60fps H.265/H.264解碼
    發(fā)表于 12-19 13:44

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過實踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會在構(gòu)建高準(zhǔn)確率輕量級CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚神經(jīng)網(wǎng)絡(luò)本身是需要不斷抽象出更高級別的紋理
    發(fā)表于 10-28 08:02

    【新品上線】AI 智能視覺核心板:CORE-1126BJD4

    采用Rockchip四核AI視覺處理器RV1126B,集成3TOPSNPU,支持輕量級AI大模型和深度學(xué)習(xí)框架。支持12M視頻編碼,4K視頻解碼,支持4個攝像頭同時輸入。采用260P金手指接口,尺寸
    的頭像 發(fā)表于 10-09 16:40 ?840次閱讀
    【新品上線】AI 智能<b class='flag-5'>視覺</b>核心板:CORE-1126BJD4

    【CW32】uart_obj_fw 輕量級串口框架

    輕量級跨平臺串口通信框架,專為資源受限的嵌入式設(shè)備設(shè)計。單個對象RAM占用最小68字節(jié)左右(不算緩沖區(qū)),ROM占用1-2k字節(jié)左右,功能支持裁剪,資源占用小并不代表低性能,該庫參考了freeRTOS
    的頭像 發(fā)表于 09-29 18:02 ?7937次閱讀

    全新輕量級ViSTA-SLAM系統(tǒng)介紹

    無需相機(jī)內(nèi)參、極致輕量的前端(前端模型大小僅為同類35%),實時單目視覺SLAM,ViSTA-SLAM。與現(xiàn)有方法相比,ViSTA-SLAM不僅更輕、更快,在相機(jī)跟蹤和密集3D重建質(zhì)量方面也均表現(xiàn)出色。
    的頭像 發(fā)表于 09-22 15:53 ?1152次閱讀
    全新<b class='flag-5'>輕量級</b>ViSTA-SLAM系統(tǒng)介紹

    Crypto核心庫:顛覆傳統(tǒng)的數(shù)據(jù)安全輕量級加密方案

    傳統(tǒng)加密方案常陷入“安全與性能”的二元悖論。Crypto核心庫打破這一僵局,通過輕量級架構(gòu)與算法優(yōu)化,實現(xiàn)加密解密的雙向突破:在保障銀行級安全的同時,將資源消耗壓縮至極致,讓數(shù)據(jù)安全“輕”裝上
    的頭像 發(fā)表于 08-04 14:44 ?851次閱讀
    Crypto核心庫:顛覆傳統(tǒng)的數(shù)據(jù)安全<b class='flag-5'>輕量級</b>加密方案

    基于米爾瑞芯微RK3576開發(fā)板部署運行TinyMaix:超輕量級推理框架

    推理庫,可以讓你在任意低資源MCU上運行輕量級深度學(xué)習(xí)模型。關(guān)鍵特性核心代碼少于 400行(tm_layers.c+tm_model.c+arch_cpu.h), 代碼段(.text)少于3KB 低
    發(fā)表于 07-25 16:35

    如何在RK3576開發(fā)板上運行TinyMaix :超輕量級推理框架--基于米爾MYD-LR3576開發(fā)板

    讓你在任意低資源MCU上運行輕量級深度學(xué)習(xí)模型。關(guān)鍵特性核心代碼少于400行(tm_layers.c+tm_model.c+arch_cpu.h),代碼段(.tex
    的頭像 發(fā)表于 07-25 08:03 ?4402次閱讀
    如何在RK3576開發(fā)板上運行TinyMaix :超<b class='flag-5'>輕量級</b>推理框架--基于米爾MYD-LR3576開發(fā)板

    輕量級≠低效能:RK3506J核心板如何用性價比感動用戶?

    瑞芯微 RK3506J憑借多核異構(gòu)架構(gòu)設(shè)計與國產(chǎn)化供應(yīng)鏈整合,以輕量級硬件資源實現(xiàn)工業(yè)級性能輸出,重新定義了控制芯片的性價比邊界,為工業(yè)控制芯片領(lǐng)域帶來了全新的解決方案與發(fā)展方向。
    的頭像 發(fā)表于 06-17 09:20 ?2965次閱讀
    <b class='flag-5'>輕量級</b>≠低效能:RK3506J核心板如何用性價比感動用戶?

    成本狂降90%!國產(chǎn)芯片+開源模型如何改寫AI玩具規(guī)則

    電子發(fā)燒友網(wǎng)綜合報道,在AI技術(shù)持續(xù)突破的當(dāng)下,AI玩具正在經(jīng)歷一場靜默的變革,而變革的核心,在于輕量級模型的技術(shù)突破,即通過算法壓縮與硬件協(xié)同,AI玩具得以在方寸之間承載復(fù)雜的智能交互,以更低
    的頭像 發(fā)表于 05-29 00:52 ?4083次閱讀

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境打包成一個可移植的容器,極大地簡化了部署流程
    的頭像 發(fā)表于 05-24 16:39 ?1336次閱讀
    青冈县| 皮山县| 盱眙县| 晋江市| 龙游县| 阿拉善左旗| 尉犁县| 屏山县| 雷州市| 靖安县| 辽宁省| 门源| 洱源县| 南宁市| 洪泽县| 石柱| 广宁县| 翁牛特旗| 大港区| 邵东县| 兴和县| 四会市| 隆化县| 宜都市| 镇沅| 安化县| 克拉玛依市| 嘉禾县| 大同县| 三穗县| 河津市| 保靖县| 外汇| 济源市| 甘德县| 六安市| 剑阁县| 喀喇| 静安区| 信丰县| 开平市|