哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新的深度學(xué)習(xí)研究打破了自動駕駛汽車圖像識別能力的記錄

倩倩 ? 來源:新經(jīng)網(wǎng) ? 2020-07-07 17:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人,自行車,汽車或道路,天空,草地:圖像的哪些像素代表無人駕駛汽車前的不同前景人物或物體,哪些像素代表背景類別?這項稱為全景分割的任務(wù)是一個基本問題,已在許多領(lǐng)域中應(yīng)用,例如自動駕駛汽車,機器人技術(shù),增強現(xiàn)實,甚至在生物醫(yī)學(xué)圖像分析中。在弗萊堡大學(xué)計算機科學(xué)系,Abhinav Valada博士是機器人學(xué)習(xí)的助理教授,也是BrainLinks-BrainTools的成員,他專注于這個研究問題。Valada和他的團隊開發(fā)了最先進的“ EfficientPS”人工智能(AI)模型,該模型可以更快,更有效地對視覺場景進行連貫識別。

這項任務(wù)通常使用稱為深度學(xué)習(xí)機器學(xué)習(xí)技術(shù)來解決,其中人工神經(jīng)網(wǎng)絡(luò)弗賴堡研究人員解釋說,它們是從人腦中汲取靈感,從大量數(shù)據(jù)中學(xué)習(xí)。諸如Cityscapes之類的公共基準(zhǔn)在衡量這些技術(shù)的進步方面起著重要作用。Valada團隊的成員Rohit Mohan說:“多年來,來自Google或Uber的研究團隊一直在這些基準(zhǔn)測試中爭奪榜首?!?來自弗萊堡(Freiburg)的計算機科學(xué)家的方法已被開發(fā)出來,用于理解城市的城市場景,在“城市景觀”(Cityscapes)中排名第一,Cityscapes是最有影響力的自動駕駛場景理解研究的排行榜。EfficientPS還始終在其他標(biāo)準(zhǔn)基準(zhǔn)數(shù)據(jù)集(例如KITTI,Mapillary Vistas和IDD)上設(shè)置新的最新技術(shù)。

在項目網(wǎng)站上,Valada展示了團隊如何在各種數(shù)據(jù)集上訓(xùn)練不同AI模型的示例。結(jié)果疊加在相應(yīng)的輸入圖像上,其中顏色顯示模型將像素分配給的對象類別。例如,汽車標(biāo)記為藍(lán)色,人物標(biāo)記為紅色,樹木標(biāo)記為綠色,建筑物標(biāo)記為灰色。此外,AI模型還在每個被視為獨立實體的對象周圍繪制邊框。弗萊堡大學(xué)的研究人員成功地訓(xùn)練了該模型,以將所學(xué)的城市場景信息從斯圖加特轉(zhuǎn)移到紐約市。盡管AI模型不知道美國的城市長什么樣,但它能夠準(zhǔn)確識別紐約市的場景。

Valada解釋說,以前解決該問題的大多數(shù)方法都具有較大的模型尺寸,并且在實際應(yīng)用中(例如受資源嚴(yán)重限制的機器人技術(shù))在計算上非常昂貴,“我們的EfficientPS不僅可以實現(xiàn)最新的性能,而且這也是計算效率最高,最快的方法。這進一步擴展了可以使用EfficientPS的應(yīng)用程序?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何讓自動駕駛識別障礙物?

    自動駕駛的發(fā)展過程中,感知系統(tǒng)一直承擔(dān)車輛“眼睛”的角色,其核心任務(wù)是讓計算機理解復(fù)雜多變的物理世界。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為一種專門用于處理圖像和視頻等網(wǎng)格狀數(shù)據(jù)結(jié)構(gòu)的深度學(xué)習(xí)模型
    的頭像 發(fā)表于 04-11 09:59 ?1423次閱讀
    卷積神經(jīng)網(wǎng)絡(luò)如何讓<b class='flag-5'>自動駕駛</b><b class='flag-5'>識別</b>障礙物?

    自動駕駛汽車如何探測路面的積水深度

    [首發(fā)于智駕最前沿微信公眾號]對于自動駕駛汽車來說,雨天和積水一直是非常棘手的挑戰(zhàn)。在晴朗的天氣里,傳感器可以輕松識別車道線、行人和其他車輛,但當(dāng)路面出現(xiàn)大面積積水甚至發(fā)生內(nèi)澇時,情況就變得復(fù)雜了
    的頭像 發(fā)表于 04-07 08:51 ?317次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何探測路面的積水<b class='flag-5'>深度</b>?

    自動駕駛端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,端到端(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)到車輛實際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模塊化自動駕駛系統(tǒng)不一樣,模塊化
    的頭像 發(fā)表于 02-20 09:25 ?9527次閱讀
    <b class='flag-5'>自動駕駛</b>端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    如何構(gòu)建適合自動駕駛的世界模型?

    [首發(fā)于智駕最前沿微信公眾號]世界模型經(jīng)歷了系統(tǒng)動力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動駕駛汽車
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動駕駛</b>的世界模型?

    自動駕駛中常提的“深度估計”是個啥?

    ,為了能更好地辨別路況,也需要類似的能力。 什么是深度估計? 自動駕駛汽車必須理解環(huán)境中物體距離它有多遠(yuǎn),需要能快速辨別前面是行人還是車?那個車到底是在十米開外還是一兩百米遠(yuǎn)?
    的頭像 發(fā)表于 02-16 13:18 ?1.8w次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“<b class='flag-5'>深度</b>估計”是個啥?

    自動駕駛汽車如何實現(xiàn)自動駕駛

    人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛
    的頭像 發(fā)表于 02-10 08:50 ?776次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何實現(xiàn)<b class='flag-5'>自動駕駛</b>

    自動駕駛中常提的模仿學(xué)習(xí)是什么?

    當(dāng)談及自動駕駛模型學(xué)習(xí)時,經(jīng)常會提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動駕駛中的模仿
    的頭像 發(fā)表于 01-16 16:41 ?2133次閱讀

    自動駕駛汽車如何識別紅綠燈?

    ,很多老司機憑借視覺和經(jīng)驗,可以快速判斷紅綠燈的情況。 這一簡單的場景對于自動駕駛汽車來說,卻有很多值得討論的地方。雖然只是根據(jù)燈的顏色決定行駛步驟,但紅綠燈識別無疑是自動駕駛系統(tǒng)最基
    的頭像 發(fā)表于 12-23 09:26 ?774次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何<b class='flag-5'>識別</b>紅綠燈?

    汽車自動駕駛的太陽光模擬應(yīng)用研究

    測試裝備,通過提供可控、可重復(fù)的測試環(huán)境,已成為汽車自動駕駛研發(fā)、驗證與標(biāo)定過程中不可或缺的核心工具。汽車自動駕駛的光挑戰(zhàn)與測試需求luminbox
    的頭像 發(fā)表于 12-10 18:04 ?550次閱讀
    <b class='flag-5'>汽車</b><b class='flag-5'>自動駕駛</b>的太陽光模擬應(yīng)用<b class='flag-5'>研究</b>

    自動駕駛汽車如何確定自己的位置和所在車道?

    比人類更多的“感官”和更強的計算能力;復(fù)雜則在于,這項工作必須做到精準(zhǔn)(米級甚至分米級)、穩(wěn)定、連續(xù),并且要在各種極端環(huán)境下都要可靠。那自動駕駛汽車是如何確定自己的位置和所在車道的? ? 車輛如何感知世界?
    的頭像 發(fā)表于 11-18 09:03 ?1047次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何確定自己的位置和所在車道?

    如何確保自動駕駛汽車感知的準(zhǔn)確性?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車想要自動駕駛,首先要做的就是能對周邊環(huán)境實現(xiàn)精準(zhǔn)感知,也就是能“看”清道路,那自動駕駛汽車如何在復(fù)
    的頭像 發(fā)表于 08-23 15:06 ?1811次閱讀
    如何確保<b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>感知的準(zhǔn)確性?

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4360次閱讀
    <b class='flag-5'>自動駕駛</b>中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    自動駕駛汽車如何正確進行道路識別?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車在行駛過程中必須準(zhǔn)確識別道路環(huán)境,以便做出安全有效的決策,不同于人類開車,可以思考,自動駕駛汽車
    的頭像 發(fā)表于 06-29 09:40 ?1880次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何正確進行道路<b class='flag-5'>識別</b>?

    自動駕駛安全基石:ODD

    電子發(fā)燒友網(wǎng)綜合報道 自動駕駛ODD(Operational Design Domain)即設(shè)計運行域,是指自動駕駛系統(tǒng)被設(shè)計為安全、有效運行的具體條件范圍。它定義了自動駕駛汽車在哪些
    的頭像 發(fā)表于 05-19 03:52 ?6959次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達、攝像頭等傳感器數(shù)據(jù)處理算法的單元測試需覆蓋極端場景。例如,激光雷達點云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗證。某廠商曾在測試中遺漏
    發(fā)表于 05-12 15:59
    清流县| 德兴市| 乌拉特中旗| 尚义县| 宜春市| 福安市| 望江县| 淮南市| 梅河口市| 炎陵县| 鄢陵县| 鄱阳县| 吴桥县| 鹤岗市| 和田市| 汉源县| 巩义市| 巴青县| 平舆县| 黑龙江省| 武清区| 察雅县| 宜君县| 大足县| 宣城市| 焉耆| 象州县| 福建省| 福泉市| 塔河县| 隆化县| 菏泽市| 石家庄市| 雅安市| 东台市| 屯留县| 扶绥县| 镇坪县| 平潭县| 府谷县| 章丘市|