哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習卷積神經網絡和可視化學習

汽車玩家 ? 來源:今日頭條 ? 作者:聞數(shù)起舞 ? 2020-05-03 18:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

動機

與其他機器學習技術相比,深度學習的主要優(yōu)勢在于它能夠自動學習輸入數(shù)據(jù)的抽象表示。 但是,并非總是如此。 早在1969年,Minsky和Papert出版了一本書,該書(除其他事項外)證明了單層感知器(人工神經網絡的祖先)無法解決XOR問題。 對于我們這些沒有計算機科學背景的人,XOR問題的任務是接受兩個二進制輸入A和B,并且僅當A或B中只有一個為真時才返回true,因此名稱為“ 異或”或XOR。 單層感知器無法解決此問題的原因是它們只能解析線性可分離的類。 如果要為XOR問題及其輸出繪制可能的輸入,則該空間應如下所示:

The world’s worst game of tic-tac-toe (source: wikimedia commons)

現(xiàn)在,您可以在此圖像上繪制一條直線并將圓與十字分開嗎? 劇透:您不能,感知器也不能。 幸運的是,勇敢的先驅者擁有將兩個感知器結合在一起的見識,并且深度學習領域誕生了(或多或少)。 之所以可行,是因為神經網絡的每一層都可以看作是前一層的嵌入。 盡管上圖中的圓圈和十字可能無法以其原始形式線性分離,但可以通過簡單的編碼進行線性分離。 拍攝圖像的左上角和右下角,并將它們保持在您的腦海中。 然后,借助您的想象力,將圖像對折至第三維的一半,將右上角拖出屏幕,然后將其向下壓回到左下角。 如果操作正確,它將看起來像這樣:

If you look closely, you may notice I’m not an artist

現(xiàn)在,您可以在此圖像上繪制一條直線并將圓與十字分開嗎? 我衷心希望如此。 這種獲取信息并將其編碼為其他更有用形式的動作是神經網絡擅長的主要任務。 實際上,訓練神經網絡不是為了具有預測能力,而是為了發(fā)現(xiàn)它們所獲得的學習表現(xiàn),已經成為深度學習研究的主要內容。

學會看

卷積神經網絡(CNN)是將深度學習應用于圖像數(shù)據(jù)的最受歡迎的體系結構。 簡而言之,CNN可以學習許多過濾器,它們適用于圖像的每個像素及其層。 通過將這些過濾器應用于圖像以及重復進行下采樣,神經網絡將學會在其第一層中識別簡單的低層特征,并在其最后一層中識別復雜的高層特征。 至少,這就是通常的解釋方式。

Image Source: Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations, by Lee et al.

如您所見,模型學會了識別各種邊緣,然后識別出面部特征,然后識別出整個面部(去除了許多中間層)。 如果您使用Google“卷積神經網絡層可視化”,則會發(fā)現(xiàn)大量上述圖片。 但是,我從未在訓練過程中看到CNN圖層的可視化,所以我想我會看到它們的外觀。 在此探索中,我使用了常見的MNIST數(shù)據(jù)集,即一組60,000個黑白手繪數(shù)字,每個數(shù)字的高度和寬度為28像素。 我使用了一個簡單的卷積模型,如下所示:

The network architecture, including 6 convolutional layers and 3 dense layers

可視化

對神經網絡進行了五個時期的訓練,最小批量為1024個圖像,總共290個訓練步驟。 在每個步驟之后,將一組預先選擇的十個樣本圖像(每個數(shù)字之一)輸入模型,并保存每個卷積層的激活。 盡管tanh近年來它不再流行,而是支持更易于訓練的,但我還是決定將tanh用作卷積層中的激活函數(shù)。 這是因為tanh限制在-1和1之間,使其易于可視化。 將第一層的激活應用于紅藍色色圖時,結果如下:

Conv1: The input images (top row) and the activations of the four channels in convolutional layer 1. Activations range from +1 (blue) to 0 (white) to -1 (red). Frame (top left) is the number of training steps applied.

Conv1似乎已學會識別第一和第二通道的筆劃寬度,因為每個數(shù)字的內部為深紅色,而外部為淺紅色。在第三和第四通道中,似乎已經學會了邊緣的概念,其中數(shù)字為藍色,背景為粉紅色,數(shù)字邊緣為白色。然而,這些激活是深度學習規(guī)范所建議的一個長遠目標,那就是每個通道都將學習一個清晰而獨特的功能,例如垂直和水平邊緣。 Conv1在很大程度上復制帶有少量注釋的原始輸入。

Conv2: The same setup as Conv1.

與Conv1相似,Conv2也似乎正在再現(xiàn)原始輸入。 通道1、2和4彼此幾乎相同,并且與Conv1中看到的邊緣突出顯示行為幾乎相同,通道3只是輸入的模糊再現(xiàn)。

Conv3: The same setup as Conv1, except with eight channels instead of four. This layer has half the resolution as the original image, so activations were upscaled without interpolation for visualization.

在Conv3中,我們看到了可能是第一個真正了解的功能。在第六個通道中,在訓練即將結束時,我們看到數(shù)字是藍色的,大多數(shù)背景是粉紅色的,而數(shù)字每個部分正下方的背景是紅色。這表明該通道已學會識別水平邊緣的底部。同樣,第七個通道在每個數(shù)字上方都有紅色數(shù)字,粉紅色背景和白色水平邊緣。但是,其他通道似乎只是原始圖像的簡單復制。

Conv4: The same setup as Conv3.

在Conv4中,我們看到了更清晰定義的功能。 特別是,我們看到了不同角度的邊緣。 第一,第二和第六通道標識水平邊緣的頂部。 第三,第七和第八通道標識對角線邊緣。 其他兩個通道是原始圖像的粗略復制。

Conv5: The same setup as Conv1, except with sixteen channels instead of four. This layer has one-quarter the resolution of the original image, so activations were upscaled without interpolation for visualization.

Conv5進行了大幅下采樣,分辨率僅為7x7像素,但似乎具有有意義的特征提取。 在訓練的最早步驟中,每個通道都是粉紅色的,幾乎沒有任何信息。 到了步驟70,該層已學會產生模糊地類似于輸入的斑點。 但是,在訓練結束時,通道之間已經明顯地區(qū)分開,并且在激活方面顯示出急劇的變化。 由于分辨率低和我們稱之為獨立功能的糾結,目前尚不清楚在這里學到了哪些功能,但是很顯然,這里的每個通道都有一些有用的功能。

Conv6: The gif was too large for Medium, so these are the activations after training has completed.

不幸的是,Conv6文件太大,沒有上傳動圖。與Conv5相似,學習到的功能清晰可見,但是幾乎無法分辨出它們實際對應的含義。

Accuracy and loss (categorical_crossentropy) during training

得到教訓

那么這個故事的寓意是什么?我建議有三個。

首先,深度學習成果很少像教科書所建議的那樣清晰。許多教科書,包括深度學習(Goodfellow等人),都將低級卷積層比作Gabor濾鏡和其他手工制作計算機視覺濾鏡。盡管該模型在測試數(shù)據(jù)上的準確性達到了95%以上,但是就特征提取而言,前四個卷積層所做的很少。當然,對于一個非常簡單的任務來說,這是一個非常簡單的模型,而且為一個更艱巨的任務而訓練的更復雜的模型可能至少學到了一些有用的低級功能,但是通常采用深度學習的方式進行教學(在我的經驗)表明,即使對于簡單的任務,特征的優(yōu)化和提取也是不可避免的;顯然不是這樣。

第二個教訓是,學習的功能不太可能是人類可能會選擇的直觀,獨立的特質。 Conv5和Conv6清楚地學到了一些東西,并且原始圖像的編碼方式使得網絡的密集層可以按數(shù)字類型對它們進行分類,但是他們學會了檢測的內容并不能立即顯而易見。 這是深度學習中的一個常見問題,尤其是在生成建模中,模型可能會學習將兩個或多個看似無關的特質嵌入為單個功能。

這是第三課,這是我作為數(shù)據(jù)科學家在工作中每天都想起的一課,那就是可視化所有內容。 我參加了這個項目,期望寫一篇非常不同的文章。 我很高興展示從低級邊緣檢測到高級循環(huán)和旋轉的網絡學習和優(yōu)化功能。 取而代之的是,我發(fā)現(xiàn)一個懶散的漫步,直到第11個小時才具有完善的功能。 最值得注意的是,我驚訝地發(fā)現(xiàn),一旦各層學會了輸入的某種表示形式,它們在訓練過程中幾乎就不會改變。 可視化增強了我對卷積神經網絡訓練的理解。 希望您也從這里學到了一些東西。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5603

    瀏覽量

    124590
  • 卷積神經網絡

    關注

    4

    文章

    374

    瀏覽量

    12909
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    卷積神經網絡如何讓自動駕駛識別障礙物?

    自動駕駛的發(fā)展過程中,感知系統(tǒng)一直承擔車輛“眼睛”的角色,其核心任務是讓計算機理解復雜多變的物理世界。卷積神經網絡(CNN)作為一種專門用于處理圖像和視頻等網格狀數(shù)據(jù)結構的深度學習模型
    的頭像 發(fā)表于 04-11 09:59 ?1359次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>如何讓自動駕駛識別障礙物?

    穿孔機頂頭檢測儀 機器視覺深度學習

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學習技術,通過Keras實現(xiàn)卷積神經網絡(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓練,得到符合現(xiàn)場需求的模型,進一步提升檢測的準確性和現(xiàn)場的適應性
    發(fā)表于 12-22 14:33

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現(xiàn)。什么是神經網絡?
    的頭像 發(fā)表于 12-17 15:05 ?433次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    自動駕駛中常提的卷積神經網絡是個啥?

    在自動駕駛領域,經常會聽到卷積神經網絡技術。卷積神經網絡,簡稱為CNN,是一種專門用來處理網格狀數(shù)據(jù)(比如圖像)的深度
    的頭像 發(fā)表于 11-19 18:15 ?2202次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>是個啥?

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經網絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經網絡庫使用介紹

    :   神經網絡卷積函數(shù)   神經網絡激活函數(shù)   全連接層函數(shù)   神經網絡池化函數(shù)   Softmax 函數(shù)   神經網絡支持功能
    發(fā)表于 10-29 06:08

    構建CNN網絡模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經網絡模型,首先應該避免嘗試單層神經網絡。 2)減少卷積核的大?。篊NN神經網絡是通過權值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學當中提及到的卷積概念,CNN神經網絡中的卷積嚴格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓練一個卷積神經網絡(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓練并保存,就可以用于對新圖像進行推理和預測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    讀取。接下來需要使用擴展指令,完成神經網絡的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權重數(shù)據(jù)、輸入數(shù)據(jù)導入硬件加速器內。對于權重
    發(fā)表于 10-20 08:00

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    1.算法簡介液態(tài)神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統(tǒng),特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1494次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現(xiàn)“神經網絡
    的頭像 發(fā)表于 09-10 17:38 ?1019次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>神經網絡</b>

    卷積神經網絡如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經網絡
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經網絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    結構可視化:利用數(shù)據(jù)編輯器剖析數(shù)據(jù)內在架構?

    動路徑,為數(shù)據(jù)驅動的決策提供堅實基礎。借助數(shù)據(jù)編輯器,企業(yè)還能更便捷地對可視化呈現(xiàn)的數(shù)據(jù)進行編輯、調整,以滿足不同分析場景的需求,進一步優(yōu)化數(shù)據(jù)管理流程。 以神經網絡可視化展示為例,在深度
    的頭像 發(fā)表于 05-07 18:42 ?860次閱讀
    广元市| 泸溪县| 宁陵县| 湘潭县| 日照市| 鄂托克旗| 乌鲁木齐县| 柞水县| 衡东县| 鄂尔多斯市| 武川县| 雷山县| 乌拉特中旗| 久治县| 福安市| 银川市| 安吉县| 大名县| 东乡县| 浪卡子县| 嘉善县| 仪陇县| 平山县| 霍山县| 定边县| 天镇县| 泰兴市| 普格县| 景谷| 新余市| 田林县| 清涧县| 九龙城区| 沈阳市| 仪征市| 民县| 桂平市| 开远市| 姚安县| 旬邑县| 临夏市|