哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

分享一種基于深度圖像梯度的線特征提取算法download

jf_pmFSk4VX ? 來(lái)源:GiantPandaCV ? 2023-01-08 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個(gè)人體會(huì)

在低紋理區(qū)域,傳統(tǒng)的基于特征點(diǎn)的SfM/SLAM/三維重建算法很容易失敗。因此很多算法會(huì)嘗試去提取線特征來(lái)提高點(diǎn)特征的魯棒性,典型操作就是LSD。

但在一些帶噪聲的低光照環(huán)境下,LSD很容易失效。而且線特征檢測(cè)的難點(diǎn)在于,由于遮擋,線端點(diǎn)的精確定位很難獲得。

它使用深度學(xué)習(xí)來(lái)處理圖像并丟棄不必要的細(xì)節(jié),然后使用手工方法來(lái)檢測(cè)線段。

因此,DeepLSD不僅對(duì)光照和噪聲具有更強(qiáng)魯棒性,同時(shí)保留了經(jīng)典方法的準(zhǔn)確性。整篇文章的推導(dǎo)和實(shí)驗(yàn)非常詳實(shí),重要的是算法已經(jīng)開源!

2. 摘要

線段在我們的人造世界中無(wú)處不在,并且越來(lái)越多地用于視覺任務(wù)中。由于它們提供的空間范圍和結(jié)構(gòu)信息,它們是特征點(diǎn)的補(bǔ)充。

基于圖像梯度的傳統(tǒng)線檢測(cè)器非常快速和準(zhǔn)確,但是在噪聲圖像和挑戰(zhàn)性條件下缺乏魯棒性。他們有經(jīng)驗(yàn)的同行更具可重復(fù)性,可以處理具有挑戰(zhàn)性的圖像,但代價(jià)是精確度較低,偏向線框線。

我們建議將傳統(tǒng)方法和學(xué)習(xí)方法結(jié)合起來(lái),以獲得兩個(gè)世界的最佳效果:一個(gè)準(zhǔn)確而魯棒的線檢測(cè)器,可以在沒有真值線的情況下在野外訓(xùn)練。

我們的新型線段檢測(cè)器DeepLSD使用深度網(wǎng)絡(luò)處理圖像,以生成線吸引力場(chǎng),然后將其轉(zhuǎn)換為替代圖像梯度幅度和角度,再饋入任何現(xiàn)有的手工線檢測(cè)器。

此外,我們提出了一個(gè)新的優(yōu)化工具,以完善基于吸引力場(chǎng)和消失點(diǎn)的線段。

這種改進(jìn)大大提高了當(dāng)前深度探測(cè)器的精度。我們展示了我們的方法在低級(jí)線檢測(cè)度量上的性能,以及在使用多挑戰(zhàn)數(shù)據(jù)集的幾個(gè)下游任務(wù)上的性能。

3. 算法解讀

作者將深度網(wǎng)絡(luò)的魯棒性與手工制作的線特征檢測(cè)器的準(zhǔn)確性結(jié)合起來(lái)。具體來(lái)說(shuō),有如下四步:

(1) 通過(guò)引導(dǎo)LSD生成真實(shí)線距離和角度場(chǎng)(DF/AF)。

(2) 訓(xùn)練深度網(wǎng)絡(luò)以預(yù)測(cè)線吸引場(chǎng)DF/AF,然后將其轉(zhuǎn)換為替代圖像梯度。

(3) 利用手工LSD提取線段。

(4) 基于吸引場(chǎng)DF/AF進(jìn)行細(xì)化。

8c1a4daa-8e4d-11ed-bfe3-dac502259ad0.png

圖1 方法概述

作者所做主要貢獻(xiàn)如下:

(1) 提出了一種自舉當(dāng)前檢測(cè)器的方法來(lái)在任意圖像上創(chuàng)建真實(shí)線吸引場(chǎng)。

(2) 引入了一個(gè)優(yōu)化過(guò)程,可以同時(shí)優(yōu)化線段和消失點(diǎn)。這種優(yōu)化可以作為一種獨(dú)立的細(xì)化來(lái)提高任何現(xiàn)有的深度線檢測(cè)器的精度。

(3) 在多個(gè)需要線特征的下游任務(wù)中,通過(guò)結(jié)合深度學(xué)習(xí)方法的魯棒性和手工方法在單個(gè)pipeline中的精度,創(chuàng)造了新的記錄。

3.1 線吸引場(chǎng)

最早通過(guò)吸引場(chǎng)表示線段的方法是AFM,為圖像的每個(gè)像素回歸一個(gè)2D向量場(chǎng),來(lái)表示直線上最近點(diǎn)的相對(duì)位置。

該方法允許將離散量(線段)表示為適合深度學(xué)習(xí)的平滑2通道圖像。然而,這種表示方法并不是獲得精確線段的最佳方法。

如圖2所示,比如HAWP那樣直接預(yù)測(cè)端點(diǎn)的位置需要很大的感受野,以便能夠從遙遠(yuǎn)的端點(diǎn)獲取信息。

8c27bb5c-8e4d-11ed-bfe3-dac502259ad0.png

圖2 吸引場(chǎng)參數(shù)化。(a)對(duì)二維向量進(jìn)行參數(shù)化可能會(huì)對(duì)小向量模產(chǎn)生噪聲角。(b) 向端點(diǎn)添加偏移量需要長(zhǎng)程信息且對(duì)噪聲端點(diǎn)不具有魯棒性。作者提出將距離場(chǎng)(c)和線角度場(chǎng)(d)解耦。

而DeepLSD這項(xiàng)工作的巧妙之處在于,作者提出將網(wǎng)絡(luò)限制在一個(gè)較小的感受野,并使用傳統(tǒng)的啟發(fā)式方法來(lái)確定端點(diǎn)。

DeepLSD采用和HAWP類似的吸引場(chǎng),但沒有額外的兩個(gè)指向端點(diǎn)的角度,只保留線距離場(chǎng)(DF)和線角度場(chǎng)(AF)。其中線距離場(chǎng)DF給出當(dāng)前像素到直線上最近點(diǎn)的距離,線角度場(chǎng)AF返回最近直線的方向:

8c35c1fc-8e4d-11ed-bfe3-dac502259ad0.png

3.2 真值生成

為了學(xué)習(xí)線吸引場(chǎng),需要ground truth。AFM和HAWP都是使用線框數(shù)據(jù)集的真值來(lái)監(jiān)督。但DeepLSD的作者探索了一種新的方法,即通過(guò)引導(dǎo)先前的線檢測(cè)器來(lái)獲取真值。

具體來(lái)說(shuō),就是通過(guò)單應(yīng)性自適應(yīng)生成真值吸引場(chǎng)。給定單幅輸入圖像I,將其與N個(gè)隨機(jī)單應(yīng)矩陣Hi進(jìn)行wrap,在所有wrap后的圖像Ii中使用LSD檢測(cè)直線段,然后將其wrap回到I來(lái)得到線集合Li。

下一步是將所有的線聚合在一起,這一部分是個(gè)難點(diǎn)。作者的做法是將線條集合Li轉(zhuǎn)換為距離場(chǎng)Di和角度場(chǎng)Ai,并通過(guò)取所有圖像中每個(gè)像素(u, v)的中值來(lái)聚合:

8c42bede-8e4d-11ed-bfe3-dac502259ad0.png

通過(guò)取中值,可以去除僅在少數(shù)圖像中檢測(cè)到的噪聲,結(jié)果如圖3所示。

8c60f9b2-8e4d-11ed-bfe3-dac502259ad0.png

圖3 偽GT可視化

3.3 學(xué)習(xí)線吸引場(chǎng)

為了回歸距離場(chǎng)和角度場(chǎng),DeepLSD使用了UNet架構(gòu),尺寸為HxW的輸入圖像經(jīng)多個(gè)卷積層處理,并通過(guò)連續(xù)3次平均池化操作逐步降采樣至8倍。

然后通過(guò)另一系列卷積層和雙線性插值將特征放大回原始分辨率。得到的深度特征被分成兩個(gè)分支,一個(gè)輸出距離場(chǎng),一個(gè)輸出角度場(chǎng)。最后距離場(chǎng)通過(guò)反歸一化得到:

8c6eafbc-8e4d-11ed-bfe3-dac502259ad0.png

其中r是像素中的一個(gè)參數(shù),它定義了每條線周圍的區(qū)域。由于手工方法主要需要線段附近的梯度信息,因此DeepLSD只對(duì)距離線段小于r個(gè)像素的像素進(jìn)行監(jiān)督。

總損失為距離場(chǎng)和角度場(chǎng)的損失之和:

8c7dc056-8e4d-11ed-bfe3-dac502259ad0.png

這里就沒啥可說(shuō)的了,LD為歸一化距離場(chǎng)之間的L1損失,LA為L(zhǎng)2角度損失:

8c8acb7a-8e4d-11ed-bfe3-dac502259ad0.png

3.4.提取線段

由于LSD是基于圖像梯度的,因此需要將距離場(chǎng)和角度場(chǎng)轉(zhuǎn)換為替代圖像梯度幅度和角度:

8c9c3c70-8e4d-11ed-bfe3-dac502259ad0.png

AFM和LSD方法的一個(gè)重要區(qū)別是梯度方向。對(duì)于黑暗與明亮區(qū)域分離的邊緣,LSD跟蹤從暗到亮的梯度方向,而AFM不跟蹤。

如圖4所示,當(dāng)幾條平行線以暗-亮-暗或亮-暗-亮的模式相鄰出現(xiàn)時(shí),這就變得很重要。

為了更好的精度和尺度不變性,DeepLSD檢測(cè)這些雙邊緣,并構(gòu)造角度方向:

8ca9eab4-8e4d-11ed-bfe3-dac502259ad0.png

8cb7df34-8e4d-11ed-bfe3-dac502259ad0.png

圖4 區(qū)分雙邊緣。(a) 亮-暗-亮邊緣和定向角度場(chǎng)的示例。(b) HAWP將其視為一條直線。(c) 為了準(zhǔn)確,DeepLSD將其檢測(cè)為兩條線。

為了使線特征更加精確,作者還提出了一個(gè)優(yōu)化步驟,即利用第二步預(yù)測(cè)的DF和AF來(lái)細(xì)化。需要注意的是,這種優(yōu)化方法也可以用來(lái)增強(qiáng)任何其他深度探測(cè)器的線特征。

優(yōu)化的核心思路是,在3D中平行的線將共享消失點(diǎn)。因此DeepLSD將其作為軟約束融入到優(yōu)化中,有效地降低了自由度。

首先利用多模型擬合算法Progressive-X計(jì)算一組與預(yù)測(cè)線段相關(guān)的消失點(diǎn)(VPs)。然后對(duì)每條線段獨(dú)立進(jìn)行優(yōu)化,損失函數(shù)是三種不同成本的加權(quán)無(wú)約束最小二乘最小化:

8cc5e7dc-8e4d-11ed-bfe3-dac502259ad0.png8cd3418e-8e4d-11ed-bfe3-dac502259ad0.png

4. 實(shí)驗(yàn)

作者訓(xùn)練了DeepLSD的兩個(gè)版本,一個(gè)在室內(nèi)Wireframe數(shù)據(jù)集,沒有使用GT線,一個(gè)室外MegaDepth數(shù)據(jù)集。

MegaDepth數(shù)據(jù)集保留150個(gè)場(chǎng)景用于訓(xùn)練,17個(gè)場(chǎng)景用于驗(yàn)證,每個(gè)場(chǎng)景只采集50張圖像。

在實(shí)驗(yàn)細(xì)節(jié)上,使用Adam優(yōu)化器和初始學(xué)習(xí)率為1e3,學(xué)習(xí)率調(diào)整策略為,當(dāng)損失函數(shù)到達(dá)一定數(shù)值時(shí)學(xué)習(xí)率/10。

硬件條件為,在NVIDIA RTX 2080 GPU上訓(xùn)練時(shí)間12小時(shí)。

4.1 直線檢測(cè)性能

作者首先在HPatches數(shù)據(jù)集和RDNIM數(shù)據(jù)集上評(píng)估直線檢測(cè)性能,其中HPatches數(shù)據(jù)集具有不同的光照和視點(diǎn)變化,RDNIM數(shù)據(jù)集具有挑戰(zhàn)性的晝夜變化相關(guān)的圖像對(duì)。

評(píng)價(jià)指標(biāo)為重復(fù)性、定位誤差以及單應(yīng)估計(jì)分?jǐn)?shù)。重復(fù)性(Rep)衡量匹配誤差在3個(gè)像素以下的直線的比例,定位誤差(LE)返回50個(gè)最準(zhǔn)確匹配的平均距離。表1和圖5所示是與經(jīng)典線特征檢測(cè)器的對(duì)比結(jié)果。

表1 在HPatches和RDNIM數(shù)據(jù)集上的直線檢測(cè)評(píng)估

8ce0171a-8e4d-11ed-bfe3-dac502259ad0.png8ced81c0-8e4d-11ed-bfe3-dac502259ad0.png

圖5 線段檢測(cè)示例

從結(jié)果來(lái)看,以TPLSD為首的學(xué)習(xí)方法具有較好的可重復(fù)性,但存在較低的定位誤差和不準(zhǔn)確的單應(yīng)矩陣估計(jì)。

手工方法和DeepLSD由于不直接對(duì)端點(diǎn)進(jìn)行回歸,而是利用非常低的細(xì)節(jié)逐步增長(zhǎng)線段,因此精度更高。

當(dāng)變化最具挑戰(zhàn)性時(shí),DeepLSD比LSD表現(xiàn)出最好的改善,即在晝夜變化強(qiáng)烈的RDNIM上。

可以顯著提高定位誤差和單應(yīng)性估計(jì)分?jǐn)?shù)。LSDNet由于通過(guò)將圖像縮放到固定的低分辨率而失去了準(zhǔn)確性。

總體而言,DeepLSD在手工方法和學(xué)習(xí)方法之間提供了最佳的權(quán)衡,并且在單應(yīng)性估計(jì)的下游任務(wù)中始終排名第一。

4.2 重建及定位

這項(xiàng)工作除了評(píng)估自身的線特征生成質(zhì)量外,還進(jìn)行了三維重建對(duì)比。作者利用Line3D++獲取一組已知姿態(tài)的圖像和相關(guān)的2D線段,并輸出線條的三維重建。

作者在Hypersim數(shù)據(jù)集的前4個(gè)場(chǎng)景上將DeepLSD與幾個(gè)基線進(jìn)行比較。其中召回R為距離網(wǎng)格5 mm以內(nèi)的所有線段的長(zhǎng)度,單位為米,越高意味著許多線條被重建。精度P是距離網(wǎng)格5毫米以內(nèi)的預(yù)測(cè)線的百分比,越高表明大部分預(yù)測(cè)的直線在真實(shí)的三維表面上。

結(jié)果如表2所示,DeepLSD總體上獲得了最好的召回和精度。TP-LSD雖然在召回上排名第一,但是能夠恢復(fù)的直線很少,其平均精度比DeepLSD小71 %。

值得注意的是,DeepLSD比LSD能夠重建更多的直線,且精度更高。

表2 線三維重建對(duì)比結(jié)果

8cfe6e5e-8e4d-11ed-bfe3-dac502259ad0.png

作者在7Scenes數(shù)據(jù)集上進(jìn)行了定位實(shí)驗(yàn),估計(jì)位姿精度,其中Stairs場(chǎng)景對(duì)于特征點(diǎn)的定位非常具有挑戰(zhàn)性。

圖6表明,DeepLSD在這個(gè)具有挑戰(zhàn)性的數(shù)據(jù)集上獲得了最好的性能。

與僅使用點(diǎn)相比,可以突出線特征帶來(lái)的性能的大幅提升。在室內(nèi)環(huán)境中,線特征提取并定位的性能良好,即使在低紋理場(chǎng)景中也可以匹配。

8d09a260-8e4d-11ed-bfe3-dac502259ad0.png

圖6 7Scenes數(shù)據(jù)集樓梯的視覺定位結(jié)果

4.3 線優(yōu)化的影響

作者還研究了優(yōu)化步驟的影響。對(duì)于每種方法,作者將原始線條與優(yōu)化后的線條和VP進(jìn)行比較。

表3展示了線檢測(cè)器在Wireframe測(cè)試集的462張圖像上的檢測(cè)結(jié)果。結(jié)果顯示,優(yōu)化可以顯著改善不精確方法的定位誤差和單應(yīng)性得分,并顯著提高評(píng)價(jià)直線精度的所有指標(biāo)。

特別是對(duì)于HAWP和TP-LSD,兩者的定位誤差都下降了32 %,單應(yīng)性得分提高了27 %和39 %。

注意,優(yōu)化并沒有給DeepLSD帶來(lái)多大提升,這是因?yàn)樗脑碱A(yù)測(cè)線已經(jīng)是亞像素精確的,并且優(yōu)化受到DF和AF分辨率的限制。

表3 Wireframe數(shù)據(jù)集上的線優(yōu)化

8d17967c-8e4d-11ed-bfe3-dac502259ad0.png

4.4 消融研究

作者在HPatches數(shù)據(jù)集上用低級(jí)別檢測(cè)器指標(biāo)驗(yàn)證了設(shè)計(jì)選擇,將DeepLSD與單邊相同模型進(jìn)行比較。表4展示了各組成部分的重要性。

值得注意的是,在DeepLSD上重新訓(xùn)練HAWP會(huì)導(dǎo)致較差的結(jié)果,因?yàn)榕c線框線相比,線條的數(shù)量更多,而且一般的直線往往有噪聲的端點(diǎn),因此預(yù)測(cè)到兩個(gè)端點(diǎn)的角度也是有噪聲的。

表4 HPatches數(shù)據(jù)集上的消融實(shí)驗(yàn)

8d2557b2-8e4d-11ed-bfe3-dac502259ad0.png

5. 結(jié)論

作者提出了一種混合線段檢測(cè)器,結(jié)合了深度學(xué)習(xí)的魯棒性和手工檢測(cè)器的準(zhǔn)確性,并使用學(xué)習(xí)的替代圖像梯度作為中間表示。還提出了一種可以應(yīng)用于現(xiàn)有深度檢測(cè)器的優(yōu)化方法,彌補(bǔ)了深度檢測(cè)器和手工檢測(cè)器之間的線局部化的差距。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 檢測(cè)器
    +關(guān)注

    關(guān)注

    1

    文章

    946

    瀏覽量

    50090
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    459

    瀏覽量

    33410
  • AFM
    AFM
    +關(guān)注

    關(guān)注

    0

    文章

    62

    瀏覽量

    20836

原文標(biāo)題:DeepLSD:基于深度圖像梯度的線段檢測(cè)和細(xì)化

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    全面掌握ComfyUI系統(tǒng)教程|94節(jié)從入門到進(jìn)階實(shí)戰(zhàn)清單

    通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取,生成與原圖分辨率致的二值掩碼。在這過(guò)程中,ComfyUI 允許用戶通過(guò)提示詞或點(diǎn)選坐標(biāo)的方式,精確指定需要分割的主體。這種“模型計(jì)算+人工干預(yù)”
    發(fā)表于 03-29 16:17

    探索ADSD3500:飛行時(shí)間深度圖像信號(hào)處理器的卓越性能

    探索ADSD3500:飛行時(shí)間深度圖像信號(hào)處理器的卓越性能 在當(dāng)今科技飛速發(fā)展的時(shí)代,飛行時(shí)間(ToF)技術(shù)在眾多領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。而ADSD3500作為款專業(yè)的ToF深度圖像信號(hào)處理器
    的頭像 發(fā)表于 03-23 16:15 ?93次閱讀

    工業(yè)鏡頭暗角:成因深度解析與實(shí)用解決方案

    在機(jī)器視覺當(dāng)中,暗角是一種比較常見的圖像缺陷。它會(huì)讓畫面邊緣和幾個(gè)角的亮度驟降,會(huì)導(dǎo)致灰度不均、特征提取失敗、測(cè)量誤差放大和軟件誤判。暗角的情況特征在拍攝均勻白板的時(shí)候,中心灰度值正常
    的頭像 發(fā)表于 03-16 17:31 ?198次閱讀
    工業(yè)鏡頭暗角:成因<b class='flag-5'>深度</b>解析與實(shí)用解決方案

    算法工程師需要具備哪些技能?

    (PCA)、異常檢測(cè)等。強(qiáng)化學(xué)習(xí):Q-learning、Policy Gradient等(適用于游戲AI、機(jī)器人控制)。 深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基礎(chǔ):前向傳播、反向傳播、激活函數(shù)等。CNN:圖像特征提取(如
    發(fā)表于 02-27 10:53

    瑞芯微(EASY EAI)RV1126B 人臉識(shí)別使用

    1.人臉識(shí)別簡(jiǎn)介人臉識(shí)別,是基于人的臉部特征信息進(jìn)行身份識(shí)別的一種生物識(shí)別技術(shù)。用攝像機(jī)或攝像頭采集含有人臉的圖像或視頻流,并自動(dòng)在圖像中檢測(cè)和跟蹤人臉,進(jìn)而對(duì)檢測(cè)到的人臉進(jìn)行臉部識(shí)別
    的頭像 發(fā)表于 01-10 10:00 ?3221次閱讀
    瑞芯微(EASY EAI)RV1126B 人臉識(shí)別使用

    電能質(zhì)量在線監(jiān)測(cè)裝置如何捕捉充電樁充電過(guò)程中的電流畸變特征?

    ,實(shí)現(xiàn)從 “波形采集→畸變分解→特征提取→合規(guī)評(píng)估” 的全鏈路監(jiān)測(cè)。 、充電樁電流畸變的核心特征(監(jiān)測(cè)基礎(chǔ)) 充電樁作為典型非線性負(fù)載,其電流畸變具有以下顯著特點(diǎn): 波形特征:僅在電
    的頭像 發(fā)表于 12-10 10:26 ?588次閱讀
    電能質(zhì)量在線監(jiān)測(cè)裝置如何捕捉充電樁充電過(guò)程中的電流畸變<b class='flag-5'>特征</b>?

    京東拍立淘API開發(fā)指南:從零開始構(gòu)建圖像搜索應(yīng)用

    京東圖片識(shí)別搜索API(拍立淘)是基于深度學(xué)習(xí)的視覺搜索服務(wù),通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征向量,結(jié)合近似最近鄰搜索算法實(shí)現(xiàn)商品精準(zhǔn)匹配?。該
    的頭像 發(fā)表于 11-09 17:40 ?2281次閱讀

    使用Otsu閾值算法將灰度圖像二值化

    Otsu 算法是由日本學(xué)者OTSU于1979年提出的一種對(duì)圖像進(jìn)行二值化的高效算法,又稱“最大類間方差法”。當(dāng)我們對(duì)個(gè)圖象進(jìn)行二值化操作的
    發(fā)表于 10-28 06:49

    淘寶圖片搜索接口開發(fā)實(shí)戰(zhàn):從 CNN 特征提取到商品匹配(附避坑手冊(cè) + 可復(fù)用代碼)

    本文詳解淘寶圖片搜索接口開發(fā)全流程,涵蓋CNN特征提取、商品匹配、參數(shù)配置及400/429等高頻報(bào)錯(cuò)解決方案,附合規(guī)避坑指南與可復(fù)用代碼,助你高效實(shí)現(xiàn)圖像搜商品功能。
    的頭像 發(fā)表于 10-21 10:03 ?710次閱讀

    基于FPGA的CLAHE圖像增強(qiáng)算法設(shè)計(jì)

    CLAHE圖像增強(qiáng)算法又稱為對(duì)比度有限的自適應(yīng)直方圖均衡算法,其算法原理是通過(guò)有限的調(diào)整圖像局部對(duì)比度來(lái)增強(qiáng)有效信號(hào)和抑制噪聲信號(hào)。
    的頭像 發(fā)表于 10-15 10:14 ?780次閱讀
    基于FPGA的CLAHE<b class='flag-5'>圖像</b>增強(qiáng)<b class='flag-5'>算法</b>設(shè)計(jì)

    大電流起弧過(guò)程中電弧聲壓/超聲波信號(hào)的特征提取與故障診斷

    接觸不良、絕緣破損、元件老化等故障時(shí),電弧的燃燒狀態(tài)會(huì)發(fā)生改變,相應(yīng)的聲壓超聲波信號(hào)也會(huì)出現(xiàn)異常變化。因此,通過(guò)提取這些信號(hào)中的關(guān)鍵特征,并結(jié)合特征變化規(guī)律進(jìn)行分析,就能實(shí)現(xiàn)對(duì)大電流起弧過(guò)程中故障的精準(zhǔn)診
    的頭像 發(fā)表于 09-29 09:27 ?693次閱讀
    大電流起弧過(guò)程中電弧聲壓/超聲波信號(hào)的<b class='flag-5'>特征提取</b>與故障診斷

    機(jī)器視覺檢測(cè)PIN針

    : 結(jié)合形態(tài)學(xué)處理、特征提取(如長(zhǎng)寬比、面積)及深度學(xué)習(xí)(針對(duì)復(fù)雜缺陷),自動(dòng)檢出彎曲、斷裂、變形、污染等。輸出與控制:實(shí)時(shí)顯示檢測(cè)結(jié)果(OK/NG)及具體參數(shù)數(shù)值。生成檢測(cè)報(bào)告,支持?jǐn)?shù)據(jù)追溯。NG品自動(dòng)剔除信號(hào)輸出,無(wú)縫對(duì)接產(chǎn)
    發(fā)表于 09-26 15:09

    一種新型激光雷達(dá)慣性視覺里程計(jì)系統(tǒng)介紹

    針對(duì)具有挑戰(zhàn)性的光照條件和惡劣環(huán)境,本文提出了LIR-LIVO,這是一種輕量級(jí)且穩(wěn)健的激光雷達(dá)-慣性-視覺里程計(jì)系統(tǒng)。通過(guò)采用諸如利用深度與激光雷達(dá)點(diǎn)云關(guān)聯(lián)實(shí)現(xiàn)特征的均勻深度分布等先進(jìn)
    的頭像 發(fā)表于 04-28 11:18 ?1245次閱讀
    <b class='flag-5'>一種</b>新型激光雷達(dá)慣性視覺里程計(jì)系統(tǒng)介紹

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】+ROS2應(yīng)用案例

    方法,包括SLAM Toolbox的使用。 通過(guò)學(xué)習(xí)這部分,我了解到SLAM的基本原理,包括特征提取、特征匹配、地圖構(gòu)建和定位等關(guān)鍵步驟。書中還介紹了如何在ROS 2中使用SLAM Toolbox進(jìn)行
    發(fā)表于 04-27 11:42

    在友晶LabCloud平臺(tái)上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過(guò)使用多個(gè)卷積層來(lái)從輸入數(shù)據(jù)中提取特征,最后通過(guò)分類層做決策來(lái)識(shí)別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?1188次閱讀
    在友晶LabCloud平臺(tái)上使用PipeCNN實(shí)現(xiàn)ImageNet<b class='flag-5'>圖像</b>分類
    安塞县| 宁夏| 民丰县| 姜堰市| 郴州市| 老河口市| 习水县| 台山市| 莱阳市| 泰和县| 修武县| 汉川市| 金湖县| 玛多县| 云龙县| 雅江县| 中牟县| 包头市| 德令哈市| 宜宾县| 浦城县| 大同市| 洛扎县| 云梦县| 长海县| 若尔盖县| 兰西县| 喀什市| 武义县| 九寨沟县| 长宁区| 巴塘县| 藁城市| 宜城市| 中卫市| 阿城市| 平果县| 彩票| 石台县| 宁明县| 子洲县|