哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛多傳感器前融合,到底提前融合了什么?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2026-04-16 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]自動駕駛里的多傳感器融合,本質(zhì)是把不同來源的信息拼在一起,讓系統(tǒng)對環(huán)境的理解更完整。攝像頭提供顏色和語義,激光雷達提供三維結(jié)構(gòu),毫米波雷達提供距離和速度,這些信息如果分開用,很容易出現(xiàn)盲區(qū),而融合之后就可以相互補充。

在這些融合方式里,前融合是最“靠前”的一種,它不是等模型理解完再合,而是直接從原始數(shù)據(jù)開始處理。

wKgZPGngOGGAV5-PAAAQo00DEvw890.jpg

什么叫“前融合”?

前融合通常指數(shù)據(jù)級融合,也就是在傳感器剛輸出數(shù)據(jù)時就開始整合,而不是等到檢測結(jié)果出來之后再合并。

可以這樣理解,系統(tǒng)不再分別處理圖像、點云和雷達數(shù)據(jù),而是先把它們變成一個統(tǒng)一的數(shù)據(jù)輸入,再交給后面的模型。

wKgZO2ngOGKATu14AEASN_5zzys973.jpg

圖片源自:網(wǎng)絡(luò)

前融合常見的做法簡單說就是把激光雷達點云投影到攝像頭圖像上,讓每個像素同時帶有顏色和距離的信息,或者反過來,把圖像里的語義信息映射到三維點上,讓點云不僅有位置,還有類別屬性。

從輸入形式上看,這一步已經(jīng)不再是單一傳感器數(shù)據(jù),而是一個融合后的多模態(tài)數(shù)據(jù)體。

wKgZPGngOGOAYcQXAAAR42n7O-I558.jpg

它具體在做哪些處理?

前融合并不是簡單拼接數(shù)據(jù),而是會解決幾個很基礎(chǔ)但關(guān)鍵的問題。

最先要處理的是時間和空間的統(tǒng)一。不同傳感器采樣頻率不同、安裝位置不同,如果不對齊,同一個目標在不同數(shù)據(jù)里會出現(xiàn)在不同位置甚至不同時間點。前融合必須先完成時間同步和坐標系統(tǒng)一,讓同一個物體在同一時刻出現(xiàn)在同一位置。

wKgZO2ngOGSAOti9AABQrLIC_pE923.jpg

圖片源自:網(wǎng)絡(luò)

在此基礎(chǔ)上,需要建立不同數(shù)據(jù)之間的對應(yīng)關(guān)系。典型操作是把三維點投影到圖像平面,或者根據(jù)相機模型把圖像信息映射回空間。這一步解決的是圖像像素和空間點如何一一對應(yīng)的問題。

當(dāng)對應(yīng)關(guān)系建立之后,就可以把信息綁定在一起。一個點不僅只是空間坐標,還可以帶有顏色、紋理或者語義標簽。最終得到的數(shù)據(jù),既包含幾何結(jié)構(gòu),又包含語義信息,相當(dāng)于把多個傳感器合成了一個更完整的輸入。

wKgZPGngOGWAMYKAAAASG3BOmsQ706.jpg

為什么要這么早融合?

說到這里,可能會有很多小伙伴想問,為什么要進行前融合?

其實前融合的核心價值在于盡量少丟傳感器感知到的信息。

wKgZO2ngOGWAMgJyAADid-6dnEs658.jpg

圖片源自:網(wǎng)絡(luò)

如果等各傳感器做完目標檢測候再合并,很多底層細節(jié)就可能被壓縮或丟棄。而在原始數(shù)據(jù)階段融合,可以最大程度保留如邊緣信息、稀疏點結(jié)構(gòu)以及弱信號目標等細節(jié)。

這將直接影響感知能力的上限。模型在訓(xùn)練時可以同時利用幾何和語義信息,能夠既知道一個目標是什么,也知道它在空間中的精確位置。

前融合還可以讓不同模態(tài)之間的關(guān)系更容易被模型學(xué)習(xí)。因為這些信息在一開始就是對齊的,模型不需要再去“猜測”它們之間的對應(yīng)關(guān)系,而是可以直接建模這種關(guān)聯(lián)。

wKgZPGngOGaAPpeHAAASAJELks8781.jpg

前融合很難容易落地?

前融合的思路聽起來非常理想,但實現(xiàn)難度其實很高。

前融合需要面對的最直接的問題就是數(shù)據(jù)量。原始圖像和點云本身就很大,如果在數(shù)據(jù)層面直接融合,會明顯增加帶寬和計算壓力,這對自動駕駛的實時需求是個不小的挑戰(zhàn)。

對齊精度其實也是一個難點。前融合依賴精確的時間同步和空間標定,一旦有誤差,融合結(jié)果就會錯位,反而影響模型判斷。在高速場景或者復(fù)雜環(huán)境中,這種誤差更難控制。

另外,前融合幾乎不做篩選,傳感器的噪聲會一起進入模型,對算法的魯棒性提出更高要求。一旦某個傳感器數(shù)據(jù)質(zhì)量下降,這個影響將會被直接放大。

wKgZO2ngOGaABrLQAABhvPMMElE900.jpg

圖片源自:網(wǎng)絡(luò)

因此在實際量產(chǎn)方案中,很多系統(tǒng)會采用折中方式,在數(shù)據(jù)層做部分對齊,然后在特征層再進一步融合,以兼顧效果和穩(wěn)定性。

從技術(shù)路徑上看,前融合做的就是盡可能早地統(tǒng)一信息表達,讓模型直接面對一個完整的環(huán)境描述。

雖然它還沒有成為主流,但它的思路已經(jīng)被很多新架構(gòu)吸收,比如在BEV表達、多模態(tài)網(wǎng)絡(luò)中,都會提前做一定程度的對齊和信息融合。

簡單理解前融合,其實可以將其看做一種更徹底的融合方式。它不是在結(jié)果上做疊加,而是試圖從源頭上消除傳感器之間的邊界。

wKgZPGngOGiAelh6AAARwcz1hbg183.jpg

最后的話

多傳感器前融合就是在數(shù)據(jù)最原始的階段,把不同傳感器的信息統(tǒng)一到一起,再交給模型處理。它解決的是“信息什么時候開始融合”的問題。越早融合,信息越完整,但對系統(tǒng)能力要求也越高。在當(dāng)前階段,它更像是一種能力上限的探索方向,而不是默認選擇。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 多傳感器
    +關(guān)注

    關(guān)注

    0

    文章

    84

    瀏覽量

    15902
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14971

    瀏覽量

    181267
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛汽車如何探測路面的積水深度?

    [首發(fā)于智駕最前沿微信公眾號]對于自動駕駛汽車來說,雨天和積水一直是非常棘手的挑戰(zhàn)。在晴朗的天氣里,傳感器可以輕松識別車道線、行人和其他車輛,但當(dāng)路面出現(xiàn)大面積積水甚至發(fā)生內(nèi)澇時,情況就變得復(fù)雜
    的頭像 發(fā)表于 04-07 08:51 ?307次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何探測路面的積水深度?

    智駕之“眼”的血管革命:自動駕駛傳感器融合趨勢下,頻段射頻連接集成方案深度全景解析

    自動駕駛向L3/L4級進階的浪潮下,傳感器融合已成為整車架構(gòu)的核心。本文深度剖析車載射頻連接從單體向“高頻、高速、
    的頭像 發(fā)表于 03-25 09:20 ?1055次閱讀
    智駕之“眼”的血管革命:<b class='flag-5'>自動駕駛</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>趨勢下,<b class='flag-5'>多</b>頻段射頻連接<b class='flag-5'>器</b>集成方案深度全景解析

    如何設(shè)計自動駕駛傳感器失效檢測與容錯策略?

    對于自動駕駛汽車而言,傳感器是它感知世界的窗口。攝像頭負責(zé)采集環(huán)境圖像,毫米波雷達和激光雷達則用于測量周圍物體的位置和速度,而GNSS(全球?qū)Ш叫l(wèi)星系統(tǒng))與慣性測量系統(tǒng)可提供車輛的定位信息。這些數(shù)據(jù)經(jīng)過融合處理之后,
    的頭像 發(fā)表于 01-10 10:33 ?2788次閱讀

    自動駕駛BEV Camera數(shù)據(jù)采集:時間同步技術(shù)解析與康謀解決方案

    一、自動駕駛傳感器融合中的時間同步重要性 在自動駕駛感知體系中,BEV(Bird's-Eye-View,鳥瞰圖)感知技術(shù)憑借尺度變化小、視角遮擋少的優(yōu)勢,成為環(huán)境感知的核心技術(shù)方向。B
    的頭像 發(fā)表于 12-11 16:36 ?1138次閱讀
    <b class='flag-5'>自動駕駛</b>BEV Camera數(shù)據(jù)采集:時間同步技術(shù)解析與康謀解決方案

    L4級自動駕駛數(shù)據(jù)采集系統(tǒng)首選

    級數(shù)據(jù)記錄設(shè)備 ,為自動駕駛研發(fā)提供端到端的解決方案,助力企業(yè)突破數(shù)據(jù)采集瓶頸。 一、自動駕駛數(shù)據(jù)采集的三大核心需求 模態(tài)傳感器融合 需同
    的頭像 發(fā)表于 11-26 09:31 ?509次閱讀

    又一新勢力車企力挺激光雷達:傳感器融合才是未來

    基礎(chǔ)模型的構(gòu)建。這一觀點與特斯拉CEO埃隆·馬斯克的純視覺理念形成鮮明對比,凸顯汽車行業(yè)在自動駕駛感知技術(shù)上的分歧。 ? Scaringe在一場訪談中表示,激光雷達“絕對有益”,Rivian的傳感器策略核心是盡可能快速構(gòu)建
    的頭像 發(fā)表于 10-20 07:49 ?4743次閱讀

    無人駕駛:智能決策與精準執(zhí)行的融合

    與車輛控制。 1. 環(huán)境感知與數(shù)據(jù)融合 無人駕駛通過多傳感器(激光雷達、攝像頭、毫米波雷達等)獲取周圍環(huán)境數(shù)據(jù)。傳感器融合技術(shù)將不同來源的數(shù)
    的頭像 發(fā)表于 09-19 14:03 ?866次閱讀

    端到端自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔(dān),再通過預(yù)定的接口協(xié)議將信息有序傳遞。與之相對照,“端到端”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡(luò)為核心,將從攝像頭、雷達、激光雷達等傳感器采集到的原始數(shù)據(jù)直接映射為駕駛控制指令,極力
    的頭像 發(fā)表于 09-02 09:09 ?984次閱讀
    端到端<b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b><b class='flag-5'>到底</b>有何提升?

    汽車傳感器融合技術(shù)的發(fā)展與挑戰(zhàn)

    來源:本文編譯自semiengineering作者:ANNMUTSCHLER在汽車設(shè)計領(lǐng)域,傳感器融合正變得日益流行且復(fù)雜。它將多種類型的傳感器集成到單個芯片或封裝中,并智能地將數(shù)據(jù)路由到所需之處
    的頭像 發(fā)表于 08-29 11:56 ?2068次閱讀
    汽車<b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>技術(shù)的發(fā)展與挑戰(zhàn)

    自動駕駛系統(tǒng)的算力越高就越好嗎?

    處理更多的數(shù)據(jù)、更復(fù)雜的模型,并能在更短的時間內(nèi)作出精準決策。那是否就代表著算力越高的自動駕駛系統(tǒng)就越好? 自動駕駛依賴于攝像頭、激光雷達(LiDAR)、毫米波雷達等傳感器
    的頭像 發(fā)表于 08-11 18:30 ?1010次閱讀

    康謀分享 | 基于傳感器數(shù)據(jù)的自動駕駛仿真確定性驗證

    自動駕駛仿真測試中,游戲引擎的底層架構(gòu)可能會帶來非確定性的問題,侵蝕測試可信度。如何通過專業(yè)仿真平臺,在傳感器配置與極端天氣場景中實現(xiàn)測試數(shù)據(jù)零差異?確定性驗證方案已成為自動駕駛研發(fā)
    的頭像 發(fā)表于 07-02 13:17 ?4351次閱讀
    康謀分享 | 基于<b class='flag-5'>多</b><b class='flag-5'>傳感器</b>數(shù)據(jù)的<b class='flag-5'>自動駕駛</b>仿真確定性驗證

    自動駕駛汽車是如何準確定位的?

    厘米級的定位精度,并能夠?qū)崟r響應(yīng)環(huán)境變化。為此,自動駕駛系統(tǒng)通常采用傳感器融合的方式,將全球?qū)Ш叫l(wèi)星系統(tǒng)(GNSS)、慣性測量單元(IMU)、激光雷達(LiDAR)、攝像頭、超寬帶(
    的頭像 發(fā)表于 06-28 11:42 ?1457次閱讀
    <b class='flag-5'>自動駕駛</b>汽車是如何準確定位的?

    AGV機器人如何實現(xiàn)毫秒級避障?深度解析傳感器融合的核心技術(shù)

    整合,彌補單一傳感器的局限,最終構(gòu)建出對環(huán)境的一致性感知。該技術(shù)既能融合源數(shù)據(jù)的互補優(yōu)勢(如精準測距與物體識別),又能通過智能算法優(yōu)化信息處理流程,使AGV(自動導(dǎo)引車)在復(fù)雜動態(tài)環(huán)
    的頭像 發(fā)表于 05-28 14:21 ?1631次閱讀
    AGV機器人如何實現(xiàn)毫秒級避障?深度解析<b class='flag-5'>多</b><b class='flag-5'>傳感器</b><b class='flag-5'>融合</b>的核心技術(shù)

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    、道路塌陷)的測試用例庫,通過虛擬仿真和真實路測數(shù)據(jù)回灌驗證算法的魯棒性。 ?第二部分:自動駕駛軟件單元測試技術(shù)體系****? ?測試對象分類與測試策略? ? 數(shù)據(jù)驅(qū)動型模塊(如傳感器融合
    發(fā)表于 05-12 15:59

    AI將如何改變自動駕駛?

    自動駕駛帶來哪些變化?其實AI可以改變自動駕駛技術(shù)的各個環(huán)節(jié),從感知能力的提升到?jīng)Q策框架的優(yōu)化,從安全性能的增強到測試驗證的加速,AI可以讓自動駕駛從實驗室走向大規(guī)模商業(yè)化。 對于感知系統(tǒng)來說,AI通過多模態(tài)
    的頭像 發(fā)表于 05-04 09:58 ?1008次閱讀
    云龙县| 禄丰县| 封丘县| 九龙县| 徐闻县| 岳阳县| 格尔木市| 来宾市| 利川市| 凤台县| 图木舒克市| 扬中市| 安多县| 全州县| 新余市| 丹凤县| 满洲里市| 南溪县| 邢台县| 常宁市| 托里县| 梧州市| 班玛县| 昌黎县| 宝丰县| 射洪县| 青浦区| 南乐县| 雅安市| 南投县| 濮阳县| 大竹县| 会宁县| 诸暨市| 昌乐县| 墨竹工卡县| 许昌县| 巫溪县| 宁晋县| 河北区| 唐海县|