哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ECCV 2022 | CMU提出FKD:用于視覺識(shí)別的快速知識(shí)蒸餾框架!訓(xùn)練加速30%!

倩倩 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-09-09 14:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天介紹一篇來自卡耐基梅隆大學(xué)等單位 ECCV 2022 的一篇關(guān)于快速知識(shí)蒸餾的文章,用基本的訓(xùn)練參數(shù)配置就可以把 ResNet-50 在 ImageNet-1K 從頭開始 (from scratch) 訓(xùn)練到 80.1% (不使用 mixup,cutmix 等數(shù)據(jù)增強(qiáng)),訓(xùn)練速度(尤其是數(shù)據(jù)讀取開銷)相比傳統(tǒng)分類框架節(jié)省 16% 以上,比之前 SOTA 算法快 30% 以上,是目前精度和速度雙雙最優(yōu)的知識(shí)蒸餾策略之一,代碼和模型已全部開源!

f183aa64-2ffd-11ed-ba43-dac502259ad0.png

A Fast Knowledge Distillation Framework for Visual Recognition

論文和項(xiàng)目網(wǎng)址:http://zhiqiangshen.com/projects/FKD/index.html

代碼:https://github.com/szq0214/FKD

知識(shí)蒸餾(KD)自從 2015 年由 Geoffrey Hinton 等人提出之后,在模型壓縮,視覺分類檢測(cè)等領(lǐng)域產(chǎn)生了巨大影響,后續(xù)產(chǎn)生了無數(shù)相關(guān)變種和擴(kuò)展版本,但是大體上可以分為以下幾類:vanilla KD,online KD,teacher-free KD 等。最近不少研究表明,一個(gè)最簡(jiǎn)單、樸素的知識(shí)蒸餾策略就可以獲得巨大的性能提升,精度甚至高于很多復(fù)雜的 KD 算法。但是 vanilla KD 有一個(gè)不可避免的缺點(diǎn):每次 iteration 都需要把訓(xùn)練樣本輸入 teacher 前向傳播產(chǎn)生軟標(biāo)簽 (soft label),這樣就導(dǎo)致很大一部分計(jì)算開銷花費(fèi)在了遍歷 teacher 模型上面,然而 teacher 的規(guī)模通常會(huì)比 student 大很多,同時(shí) teacher 的權(quán)重在訓(xùn)練過程中都是固定的,這樣就導(dǎo)致整個(gè)知識(shí)蒸餾框架學(xué)習(xí)效率很低。 針對(duì)這個(gè)問題,本文首先分析了為何沒法直接為每張輸入圖片產(chǎn)生單個(gè)軟標(biāo)簽向量然后在不同 iterations 訓(xùn)練過程中復(fù)用這個(gè)標(biāo)簽,其根本原因在于視覺領(lǐng)域模型訓(xùn)練過程數(shù)據(jù)增強(qiáng)的使用,尤其是 random-resize-cropping 這個(gè)圖像增強(qiáng)策略,導(dǎo)致不同 iteration 產(chǎn)生的輸入樣本即使來源于同一張圖片也可能來自不同區(qū)域的采樣,導(dǎo)致該樣本跟單個(gè)軟標(biāo)簽向量在不同 iterations 沒法很好的匹配。本文基于此,提出了一個(gè)快速知識(shí)蒸餾的設(shè)計(jì),通過特定的編碼方式來處理需要的參數(shù),繼而進(jìn)一步存儲(chǔ)復(fù)用軟標(biāo)簽(soft label),與此同時(shí),使用分配區(qū)域坐標(biāo)的策略來訓(xùn)練目標(biāo)網(wǎng)絡(luò)。通過這種策略,整個(gè)訓(xùn)練過程可以做到顯式的 teacher-free,該方法的特點(diǎn)是既快(16%/30% 以上訓(xùn)練加速,對(duì)于集群上數(shù)據(jù)讀取緩慢的缺點(diǎn)尤其友好),又好(使用 ResNet-50 在 ImageNet-1K 上不使用額外數(shù)據(jù)增強(qiáng)可以達(dá)到 80.1% 的精度)。 首先我們來回顧一下普通的知識(shí)蒸餾結(jié)構(gòu)是如何工作的,如下圖所示:

f1a9c6ae-2ffd-11ed-ba43-dac502259ad0.png

知識(shí)蒸餾框架包含了一個(gè)預(yù)訓(xùn)練好的 teacher 模型(蒸餾過程權(quán)重固定),和一個(gè)待學(xué)習(xí)的 student 模型, teacher 用來產(chǎn)生 soft 的 label 用于監(jiān)督 student 的學(xué)習(xí)??梢钥吹?,這個(gè)框架存在一個(gè)比較明顯的缺點(diǎn):當(dāng) teacher 結(jié)構(gòu)大于 student 的時(shí)候,訓(xùn)練圖像前饋產(chǎn)生的計(jì)算開銷已經(jīng)超過 student,然而 teacher 權(quán)重并不是我們學(xué)習(xí)的目標(biāo),導(dǎo)致這種計(jì)算開銷本質(zhì)上是 “無用的”。本文的動(dòng)機(jī)正是在研究如何在知識(shí)蒸餾訓(xùn)練過程中避免或者說重復(fù)利用這種額外的計(jì)算結(jié)果,該文章的解決策略是提前保存每張圖片不同區(qū)域的軟監(jiān)督信號(hào)(regional soft label)在硬盤上,訓(xùn)練 student 過程同時(shí)讀取訓(xùn)練圖片和標(biāo)簽文件,從而達(dá)到復(fù)用標(biāo)簽的效果。所以問題就變成了:soft label 怎么來組織和存儲(chǔ)最為有效?下面具體來看該文章提出的策略。 1. FKD 算法框架介紹 FKD 框架的核心部分包含了兩個(gè)階段,如下圖:(1)軟標(biāo)簽(soft label)的生成和存儲(chǔ);(2)使用軟標(biāo)簽(soft label)進(jìn)行模型訓(xùn)練。

f269401a-2ffd-11ed-ba43-dac502259ad0.png

如圖所示,上半部分展示了軟標(biāo)簽的生成過程,作者通過輸入多個(gè) crops 進(jìn)入預(yù)訓(xùn)練好的 teacher 來產(chǎn)生需要的軟標(biāo)簽向量,同時(shí)作者還保存了:(1)每個(gè) crop 對(duì)應(yīng)的坐標(biāo)和(2)是否翻轉(zhuǎn)的 Boolean 值。下半部分展示了 student 訓(xùn)練過程,作者在隨機(jī)采樣圖片的時(shí)候同時(shí)也會(huì)讀取它們對(duì)應(yīng)的軟標(biāo)簽文件,從中選取 N 個(gè) crops 用于訓(xùn)練,額外數(shù)據(jù)增強(qiáng)比如 mixup,cutmix 會(huì)放在這個(gè)階段,從而節(jié)省了由于引入更多數(shù)據(jù)增強(qiáng)參數(shù)帶來的額外存儲(chǔ)開銷。 2. 采樣策略 本文還提出了一個(gè) multi-crop sampling 的策略,即在一個(gè) mini-batch 里面每張圖片采樣多個(gè)樣本 crops。當(dāng)總的訓(xùn)練 epochs 不變的前提下,該采樣方式可以大大減少數(shù)據(jù)讀取的次數(shù),對(duì)于一些數(shù)據(jù)讀取不是非常高效或者產(chǎn)生嚴(yán)重瓶頸的集群設(shè)備,這種策略的加速效果非常明顯(如下表格所示)。同時(shí)在一張圖片采樣多個(gè) crops 可以減少訓(xùn)練樣本間的方差,幫助穩(wěn)定訓(xùn)練,作者發(fā)現(xiàn)如果 crops 的數(shù)目不是太大的情況下可以明顯提升模型精度,但是一張圖片里面采樣太多 crops 數(shù)目會(huì)造成每個(gè) mini-batch 里面訓(xùn)練樣本的信息差異不足(過于相似),因此過度采樣會(huì)影響性能,所以需要設(shè)置一個(gè)合理的數(shù)值。 3. 加速比 作者在實(shí)驗(yàn)部分跟標(biāo)準(zhǔn)的訓(xùn)練方式以及 ReLabel 訓(xùn)練進(jìn)行了速度的比較,結(jié)果如下表格所示:可以看到,相比正常的分類框架,F(xiàn)KD 會(huì)快 16% 左右,而相比 ReLabel 則快了 30%,因?yàn)?ReLabel 相比正常訓(xùn)練需要讀取雙倍的文件數(shù)目。需要注意的是這個(gè)速度對(duì)比實(shí)驗(yàn)中,F(xiàn)KD crop 數(shù)目為 4,如果選取更大的 crop 數(shù)目可以得到更高的加速比。

f2be645a-2ffd-11ed-ba43-dac502259ad0.png

加速原因分析: 除了上述介紹的采用多個(gè) crops 來進(jìn)行加速外,作者還分析了其他一些加速的因素,如下圖所示,ReLabel 在訓(xùn)練模型階段需要生成采樣數(shù)據(jù)的坐標(biāo),同時(shí)需要使用 RoI-Align 和 Softmax 來生成所需的軟標(biāo)簽,相比而言,F(xiàn)KD 直接保存了坐標(biāo)信息和最終軟標(biāo)簽格式,因此讀取標(biāo)簽文件之后不需要做任何額外的后處理就可以直接訓(xùn)練,速度相比 ReLabel 也會(huì)更快。

f2f8938c-2ffd-11ed-ba43-dac502259ad0.png

4. 標(biāo)簽質(zhì)量分析 軟標(biāo)簽質(zhì)量是保證模型訓(xùn)練精度的一項(xiàng)最重要的指標(biāo),作者通過可視化標(biāo)簽分布以及計(jì)算不同模型預(yù)測(cè)之間的交叉熵(cross-entropy)來證明了所提出的方式擁有更好的軟標(biāo)簽質(zhì)量。

f3bfa68e-2ffd-11ed-ba43-dac502259ad0.png

上圖展示了 FKD 和 ReLabel 軟標(biāo)簽分布的情況對(duì)比,得到如下結(jié)論:

(第一行)FKD 相比 ReLabel 置信度更加平均也與輸入樣本內(nèi)容更加一致,作者分析原因是 ReLabel 將全局圖像輸入到模型中,而不是局部區(qū)域,這使得生成的全局標(biāo)簽映射編碼了更多全局類別信息同時(shí)忽略了背景信息,使得生成的軟標(biāo)簽過于接近單個(gè)語義標(biāo)簽。

(第二行)雖然存在一些樣本 ReLabel 和 FKD 之間的最大預(yù)測(cè)概率相似,但 FKD 包含更多標(biāo)簽分布中的從屬類別概率,而 ReLabel 的分布中并沒有捕獲這些從屬類別的信息。

(第三行)對(duì)于某些異常情況,F(xiàn)KD 比 ReLabel 更加健壯,例如目標(biāo)框含有松散邊界,或者只定位部分目標(biāo)等。

(第四行)在有些情況下,ReLabel 的標(biāo)簽分布意外的崩潰了(均勻分布),沒有產(chǎn)生一個(gè)主要的預(yù)測(cè),而 FKD 仍然可以預(yù)測(cè)得很好。

5. 標(biāo)簽壓縮、量化策略 1)硬化 (Hardening)。在該策略中,樣本標(biāo)簽 Y_H 使用 teacher 預(yù)測(cè)的最大 logits 的索引。標(biāo)簽硬化策略產(chǎn)生的依然是 one-hot 的標(biāo)簽,如下公式所示:

f408481c-2ffd-11ed-ba43-dac502259ad0.png

2)平滑 (Smoothing)。平滑量化策略是將上述硬化后的標(biāo)簽 Y_H 替換為軟標(biāo)簽和均勻分布的分段函數(shù)組合,如下所示:

f41ece52-2ffd-11ed-ba43-dac502259ad0.png

3)邊際平滑 (Marginal Smoothing with Top-K)。邊際平滑量化策略相比單一預(yù)測(cè)值保留了更多的邊際信息(Top-K)來平滑標(biāo)簽 Y_S:

f43415e6-2ffd-11ed-ba43-dac502259ad0.png

4)邊際平滑歸一化 (Marginal Re-Norm with Top-K)。邊際平滑歸一化策略會(huì)將 Top-K 預(yù)測(cè)值重新歸一化到和為 1,并保持其他元素值為零(FKD 使用歸一化來校準(zhǔn) Top-K 預(yù)測(cè)值的和為 1,因?yàn)?FKD 存儲(chǔ)的軟標(biāo)簽是 softmax 處理之后的值):

f4525880-2ffd-11ed-ba43-dac502259ad0.png

具體對(duì)應(yīng)上述各種量化策略的圖示如下圖所示:

f48dd61c-2ffd-11ed-ba43-dac502259ad0.png

6. 不同標(biāo)簽量化 / 壓縮策略的存儲(chǔ)大小比較 不同標(biāo)簽壓縮方法需要的存儲(chǔ)空間如下表格所示,所使用的數(shù)據(jù)集為 ImageNet-1K,其中 M 是軟標(biāo)簽生成階段每張圖像被采樣的數(shù)目,這里作者選取了 200 作為示例。Nim 是圖像數(shù)量, ImageNet-1K 數(shù)據(jù)集為 1.2M,SLM 是 ReLabel 標(biāo)簽矩陣的大小,Cclass 是類的數(shù)量,DDA 是需要存儲(chǔ)的數(shù)據(jù)增強(qiáng)的參數(shù)維度。

f4ff4202-2ffd-11ed-ba43-dac502259ad0.png

從表格中可以看到,在不做任何壓縮的情況下 FKD 軟標(biāo)簽需要的存儲(chǔ)空間為 0.9T,這在實(shí)際使用中顯然是不現(xiàn)實(shí)的,標(biāo)簽數(shù)據(jù)的大小已經(jīng)遠(yuǎn)遠(yuǎn)超過訓(xùn)練數(shù)據(jù)本身了。通過標(biāo)簽壓縮可以極大減少存儲(chǔ)大小,同時(shí)后面實(shí)驗(yàn)也證明了合適的壓縮方式并不會(huì)損害模型精度。 7. 自監(jiān)督學(xué)習(xí)任務(wù)上的應(yīng)用 FKD 的訓(xùn)練方式也可以應(yīng)用于自監(jiān)督學(xué)習(xí)任務(wù)。作者使用自監(jiān)督算法比如 MoCo,SwAV 等來預(yù)訓(xùn)練 teacher 模型,然后按照上述方式生成用于自監(jiān)督的軟標(biāo)簽(unsupervised soft label),這個(gè)步驟跟監(jiān)督學(xué)習(xí)得到的 teacher 很相似。生成標(biāo)簽過程會(huì)保留原始自監(jiān)督模型中 projection head 并使用之后的最終輸出向量,然后將這個(gè)向量作為軟標(biāo)簽保存下來。得到該軟標(biāo)簽后,可以使用同樣的監(jiān)督式的訓(xùn)練方式來學(xué)習(xí)對(duì)應(yīng)的 student 模型。 8. 實(shí)驗(yàn)結(jié)果 1)首先是在 ResNet-50 和 ResNet-101 上的結(jié)果,如下表所示,F(xiàn)KD 取得了 80.1%/ResNet-50 和 81.9%/ResNet-101 的精度。同時(shí)訓(xùn)練時(shí)間相比普通訓(xùn)練和 ReLabel 都快了很多。

f564c14a-2ffd-11ed-ba43-dac502259ad0.png

2)作者還測(cè)試了 FKD 在 MEAL V2 上的結(jié)果,同樣得到了 80.91% 的結(jié)果。

f6e894ce-2ffd-11ed-ba43-dac502259ad0.png

3)Vision Transformer 上的結(jié)果: 接下來作者展示了在 vision transformer 上的結(jié)果,在不使用額外數(shù)據(jù)增強(qiáng)的情況下,F(xiàn)KD 就可以比之前知識(shí)蒸餾方法得到將近一個(gè)點(diǎn)的提升,同時(shí)訓(xùn)練速度快了 5 倍以上。

f7192dc8-2ffd-11ed-ba43-dac502259ad0.png

4)Tiny CNNs 上的結(jié)果:

f73f7de8-2ffd-11ed-ba43-dac502259ad0.png

5)消融實(shí)驗(yàn):

首先是不同壓縮策略,綜合考慮存儲(chǔ)需求和訓(xùn)練精度,邊際平滑策略是最佳的。

f7553822-2ffd-11ed-ba43-dac502259ad0.png

接下來是訓(xùn)練階段不同 crop 數(shù)目的對(duì)比,MEAL V2 由于使用了 pre-trained 的參數(shù)作為初始化權(quán)重,因此不同 crop 數(shù)目下性能都比較穩(wěn)定和接近。而 vanilla 和 FKD 在 crop=4 的時(shí)候表現(xiàn)得最好。尤其 vanilla,相比 crop=1 精度提升了一個(gè)點(diǎn),crop 大于 8 之后精度下降明顯。

f787316a-2ffd-11ed-ba43-dac502259ad0.png

6)自監(jiān)督任務(wù)上的結(jié)果: 如下表所示,在自監(jiān)督學(xué)習(xí)任務(wù)上 FKD 方式還是可以很好的學(xué)習(xí)目標(biāo)模型,同時(shí)相比雙子結(jié)構(gòu)自監(jiān)督網(wǎng)絡(luò)訓(xùn)練和蒸餾訓(xùn)練,可以加速三到四倍。

f7d4e874-2ffd-11ed-ba43-dac502259ad0.png

9. 下游任務(wù) 下表給出了 FKD 模型在 ImageNet ReaL 和 ImageNetV2 兩個(gè)數(shù)據(jù)集上的結(jié)果,可以看到,F(xiàn)KD 在這些數(shù)據(jù)集上取得了穩(wěn)定的提升。

f847adfa-2ffd-11ed-ba43-dac502259ad0.png

下表是 FKD 預(yù)訓(xùn)練模型在 COCO 目標(biāo)檢測(cè)任務(wù)上的結(jié)果,提升同樣明顯。

f88fda1c-2ffd-11ed-ba43-dac502259ad0.png

10. 可視化分析 如下兩張可視化圖所示,作者通過可視化中間特征層(attention map)的方式探索 FKD 這種 region-based 訓(xùn)練方式對(duì)模型產(chǎn)生的影響,作者對(duì)比了三種不同訓(xùn)練方式得到的模型:正常 one-hot label,ReLabel 和本文提出的 FKD。 (i) FKD 的預(yù)測(cè)的概率值相比 ReLabel 更加?。╯oft),因?yàn)?FKD 訓(xùn)練過程引入的上下文以及背景信息更多。在 FKD 隨機(jī) crop 的訓(xùn)練策略中,許多樣本采樣于背景(上下文)區(qū)域,來自 teacher 模型的軟預(yù)測(cè)標(biāo)簽更能真實(shí)的反映出實(shí)際輸入內(nèi)容,并且這些軟標(biāo)簽可能與 one-hot 標(biāo)簽完全不同,F(xiàn)KD 的訓(xùn)練機(jī)制可以更好的利用上下文中的額外信息。 (ii) FKD 的特征可視化圖在物體區(qū)域上具有更大的高響應(yīng)值區(qū)域,這表明 FKD 訓(xùn)練的模型利用了更多區(qū)域的線索進(jìn)行預(yù)測(cè),進(jìn)而捕獲更多差異性和細(xì)粒度的信息。 (iii)ReLabel 的注意力可視化圖與 PyTorch 預(yù)訓(xùn)練模型更加接近,而 FKD 的結(jié)果跟他們相比具有交大差異性。這說明 FKD 方式學(xué)習(xí)到的注意力機(jī)制跟之前模型有著顯著的差別,從這點(diǎn)出發(fā)后續(xù)可以進(jìn)一步研究其有效的原因和工作機(jī)理。

f8df9e26-2ffd-11ed-ba43-dac502259ad0.png

fb996f3e-2ffd-11ed-ba43-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4800

    瀏覽量

    98517
  • 視覺識(shí)別
    +關(guān)注

    關(guān)注

    3

    文章

    111

    瀏覽量

    17389
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3811

    瀏覽量

    52257

原文標(biāo)題:ECCV 2022 | CMU提出FKD:用于視覺識(shí)別的快速知識(shí)蒸餾框架!訓(xùn)練加速30%!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    一直是行業(yè)痛點(diǎn)。課程提供獨(dú)家開發(fā)的labview調(diào)用框架,實(shí)現(xiàn)從模型訓(xùn)練(Python)到部署(LabVIEW)的無縫銜接,已成功應(yīng)用于DIP、AOI、鋰電池產(chǎn)線的視覺檢測(cè)工位。 二、
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    一直是行業(yè)痛點(diǎn)。課程提供獨(dú)家開發(fā)的labview調(diào)用框架,實(shí)現(xiàn)從模型訓(xùn)練(Python)到部署(LabVIEW)的無縫銜接,已成功應(yīng)用于DIP、AOI、鋰電池產(chǎn)線的視覺檢測(cè)工位。 二、
    發(fā)表于 12-03 13:50

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字
    發(fā)表于 10-22 07:03

    UV紫外相機(jī)在工業(yè)視覺檢測(cè)中的應(yīng)用

    UV紫外相機(jī)通過捕捉紫外信號(hào)和激發(fā)熒光反應(yīng),解決常規(guī)相機(jī)無法識(shí)別的隱形缺陷和標(biāo)記,廣泛應(yīng)用于工業(yè)視覺檢測(cè)。
    的頭像 發(fā)表于 10-21 09:45 ?670次閱讀

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用 LZ-Picodet 模型訓(xùn)練的人臉檢測(cè)模型 LZ-Face,以及ArcFace人臉識(shí)別模型,實(shí)現(xiàn)人臉
    發(fā)表于 07-01 12:01

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測(cè)模型LZ-Face,以及ArcFace人臉識(shí)別模型,實(shí)現(xiàn)人臉
    的頭像 發(fā)表于 07-01 10:09 ?1060次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++人臉<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺識(shí)別模塊:手寫數(shù)字識(shí)別

    1.1 手寫數(shù)字識(shí)別簡(jiǎn)介 手寫數(shù)字識(shí)別是一種利用計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)技術(shù)自動(dòng)識(shí)別手寫數(shù)字的過程。它通過圖像預(yù)處理、特征提取和模型訓(xùn)練來實(shí)現(xiàn)
    發(fā)表于 06-30 16:45

    OCR識(shí)別訓(xùn)練完成后給的是空壓縮包,為什么?

    OCR識(shí)別 一共弄了26張圖片,都標(biāo)注好了,點(diǎn)擊開始訓(xùn)練,顯示訓(xùn)練成功了,也將壓縮包發(fā)到郵箱了,下載下來后,壓縮包里面是空的 OCR圖片20幾張圖太少了。麻煩您多添加點(diǎn),參考我們的ocr識(shí)別
    發(fā)表于 05-28 06:46

    基于LockAI視覺識(shí)別模塊:C++條碼識(shí)別

    條碼識(shí)別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識(shí)別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺
    發(fā)表于 05-27 10:26

    基于LockAI視覺識(shí)別模塊:C++條碼識(shí)別

    條碼識(shí)別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識(shí)別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺
    的頭像 發(fā)表于 05-27 09:32 ?974次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++條碼<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺識(shí)別模塊:C++同時(shí)識(shí)別輪廓和色塊

    1.項(xiàng)目簡(jiǎn)介1.1色塊識(shí)別的重要性顏色特征提?。侯伾且环N重要的視覺特征,尤其在背景較為單一的情況下,能夠快速區(qū)分目標(biāo)區(qū)域。應(yīng)用場(chǎng)景:廣泛應(yīng)用于機(jī)器人導(dǎo)航、工業(yè)自動(dòng)化、物體跟蹤等領(lǐng)域。
    的頭像 發(fā)表于 05-23 16:41 ?1120次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++同時(shí)<b class='flag-5'>識(shí)別</b>輪廓和色塊

    # 基于LockAI視覺識(shí)別模塊:C++尋找色塊

    在傳統(tǒng)計(jì)算機(jī)視覺場(chǎng)景中,顏色識(shí)別是目標(biāo)檢測(cè)和分割的重要手段之一。通過識(shí)別特定顏色的色塊,可以在相對(duì)純凈的背景下快速定位目標(biāo)區(qū)域。本實(shí)驗(yàn)提供了一個(gè)簡(jiǎn)單的色塊
    的頭像 發(fā)表于 05-12 14:27 ?905次閱讀
    # 基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++尋找色塊

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺巡線,展示了如何從數(shù)據(jù)采集、模型訓(xùn)練到機(jī)器人部署的完整流程。 值得注意的是,深度學(xué)習(xí)模型的實(shí)時(shí)性對(duì)機(jī)器人計(jì)算資源提出了較高要求,優(yōu)化模型(如TensorRT加速)是實(shí)際部署的關(guān)鍵。
    發(fā)表于 05-03 19:41

    基于LockAI視覺識(shí)別模塊:C++圖像采集例程

    本文主要演示如何使用LockAI視覺識(shí)別模塊進(jìn)行視頻流的讀取,同時(shí)使用Edit模塊進(jìn)行圖像傳輸?;A(chǔ)知識(shí)講解1.1OpenCV簡(jiǎn)介OpenCV(OpenSourceComputerVisionLibra
    的頭像 發(fā)表于 04-30 18:23 ?875次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++圖像采集例程

    請(qǐng)問訓(xùn)練平臺(tái)訓(xùn)練完的識(shí)別程序,可以實(shí)現(xiàn)在識(shí)別到物體時(shí)屏幕再顯示出來,沒有識(shí)別到物體時(shí)屏幕不顯示嗎?

    問題如題,訓(xùn)練平臺(tái)訓(xùn)練完的識(shí)別程序,可以實(shí)現(xiàn)在識(shí)別到物體時(shí)屏幕再顯示出來,沒有識(shí)別到物體時(shí)屏幕不顯示嗎?比較小白,可以解釋一下怎么做嗎?或者
    發(fā)表于 04-29 06:12
    尚义县| 扶沟县| 万山特区| 麻阳| 南华县| 宾阳县| 德州市| 亳州市| 永和县| 建水县| 长葛市| 门源| 自贡市| 金山区| 申扎县| 于都县| 大港区| 潢川县| 瑞安市| 杂多县| 上犹县| 永仁县| 宜兴市| 南川市| 阿拉善盟| 定安县| 苏尼特右旗| 连江县| 银川市| 连云港市| 汉中市| 阿鲁科尔沁旗| 广河县| 肇源县| 上林县| 天峻县| 宝清县| 临朐县| 南丹县| 临洮县| 成安县|