哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

佐思汽研發(fā)布《2024年端到端自動駕駛研究報告》

佐思汽車研究 ? 來源:佐思汽車研究 ? 2024-04-20 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐思汽研發(fā)布《2024年端到端自動駕駛研究報告》。

1

國內端到端方案現(xiàn)狀

端到端自動駕駛是直接從傳感器信息輸入(如攝像頭圖像、LiDAR等)到控制命令輸出(如轉向、加減速等)映射的一套系統(tǒng),最早出現(xiàn)在1988年的ALVINN項目,通過相機和激光測距儀進行輸入和一個簡單的神經(jīng)網(wǎng)絡生成的轉向進行輸出。

2024年初,特斯拉FSD V12.3版本發(fā)布,智駕水平讓人驚艷,端到端自動駕駛方案受到國內主機廠和自動駕駛方案企業(yè)的廣泛關注。

與傳統(tǒng)的多模塊方案相比,端到端自動駕駛方案將感知、預測和規(guī)劃整合到單一模型中,簡化了方案結構,可模擬人類駕駛員直接從視覺輸入做出駕駛決策,以數(shù)據(jù)和算力為主導,能夠有效解決模塊化方案的長尾場景,提升模型的訓練效率和性能上限。

傳統(tǒng)多模塊方案與端到端方案的對比(部分)

5f27f580-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

FSD V12.3版本實測圖

5f4f3b68-fec3-11ee-a297-92fbcf53809c.png

來源:公開渠道

部分主機廠對端到端方案落地量產(chǎn)的規(guī)劃

608716a4-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

理想端到端方案

理想認為,完整的端到端需要完成感知、跟蹤、預測、決策、規(guī)劃整個過程的模型化,是實現(xiàn)L3級別自動駕駛的最佳方案。2023年,理想推送AD Max3.0,其整體框架已經(jīng)具備端到端的理念,但距離完整的端到端尚有一定差距,2024年理想預計以此為基礎,推進該系統(tǒng)成為一個徹底的端到端方案。

理想構建的自動駕駛框架如下圖,分為兩個系統(tǒng):

快系統(tǒng):System1,感知周圍環(huán)境后直接執(zhí)行,為理想現(xiàn)行的端到端方案。

慢系統(tǒng):System2,多模態(tài)大語言模型,針對未知環(huán)境進行邏輯思考與探索,以解決L4未知場景下的問題。

理想自動駕駛框架

60bd65b0-fec3-11ee-a297-92fbcf53809c.png

來源:理想汽車

在端到端方案推進的過程中,理想計劃把規(guī)劃/預測模型與感知模型進行統(tǒng)一,并在原基礎上完成Temporal Planner的端到端,實現(xiàn)泊車/行車一體化。

2

數(shù)據(jù)成為端到端落地的關鍵

端到端方案的落地需要經(jīng)歷構建研發(fā)團隊、配置硬件設施、數(shù)據(jù)收集處理、算法訓練與策略定制、驗證評估、推廣量產(chǎn)等流程,部分場景痛點如表中所示:

端到端方案的部分場景痛點

60dc4930-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

其中,端到端自動駕駛方案中的一體化訓練需要大量的數(shù)據(jù),因此其面臨的難點之一在于數(shù)據(jù)的收集和處理。

首先,數(shù)據(jù)的收集需要大量的時間和渠道,數(shù)據(jù)類型除了駕駛數(shù)據(jù)外還包括各種不同的道路、天氣和交通情況等場景數(shù)據(jù),其中在實際駕駛中駕駛員前方視野的駕駛數(shù)據(jù)相對便于收集,周圍方位的信息收集則難以保證。

再次,數(shù)據(jù)處理時需要設計數(shù)據(jù)提取維度、從海量的視頻片段中提取有效的特征、統(tǒng)計數(shù)據(jù)分布等,以支持大規(guī)模的數(shù)據(jù)訓練。

元戎啟行

截至2024年3月,元戎啟行端到端自動駕駛方案已經(jīng)獲得長城汽車的定點項目,并與英偉達開展合作,預計2025年適配英偉達Thor芯片;在元戎啟行的規(guī)劃中,從傳統(tǒng)方案過渡到“端到端”自動駕駛方案,經(jīng)歷傳感器前融合、去高精度地圖、感知決策控制三個模型一體化等環(huán)節(jié)。

元戎啟行在數(shù)據(jù)環(huán)節(jié)的布局

6105113a-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

極佳科技

極佳科技的自動駕駛世界模型DriveDreamer,具備場景生成、數(shù)據(jù)生成、駕駛動作預測等功能;在場景/數(shù)據(jù)生成上,分為兩個步驟:

涉及單幀結構化條件,引導DriveDreamer生成駕駛場景圖像,便于其理解結構交通約束。

將其理解擴展到視頻生成。利用連續(xù)的交通結構條件,DriveDreamer輸出駕駛場景視頻,進一步增強其對運動轉換的理解。

DriveDreamer的功能包括可連續(xù)駕駛視頻生成、與文本提示和結構化交通限制無縫對齊

6122a984-fec3-11ee-a297-92fbcf53809c.png

來源:極佳科技

3

端到端方案加快具身機器人落地

除了自動駕駛汽車,具身機器人是端到端方案另一個主流場景。從端到端自動駕駛到機器人,需要構建更加通用的世界模型,來適應更加復雜、多元的現(xiàn)實使用場景,主流AGI(通用人工智能)發(fā)展的框架分為兩個階段:

階段一:基礎大模型理解和生成實現(xiàn)統(tǒng)一,進一步與具身智能結合,形成統(tǒng)一世界模型;

階段二:世界模型+復雜任務的規(guī)控能力和抽象概念的歸納能力,逐步演化進入交互AGI 1.0時代。

在世界模型落地的過程中,構建端到端的VLA(Vision-Language-Action) 自主系統(tǒng)成為關鍵一環(huán)。VLA作為具身智能基礎大模型,能夠將3D感知、推理和行動無縫鏈接起來,形成一個生成式世界模型,并建立在基于3D的大型語言模型(LLM)之上,引入一組交互標記以與環(huán)境進行互動。

3D-VLA解決方案

6142fbe4-fec3-11ee-a297-92fbcf53809c.png

來源:University of Massachusetts Amherst、MIT-IBM Watson AI Lab等機構

截至2024年4月,部分采用端到端方案的具身機器人廠商如下:

部分具身機器人如何應用端到端方案

615b550e-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

以有鹿機器人為例,其具身智能大模型LPLM(Large Physical Language Model)為端到端的具身智能解決方案,通過自我標注機制提升模型從未標注數(shù)據(jù)中的學習效率和質量,從而加深對世界的理解,進而加強機器人的泛化能力與跨模態(tài)、跨場景、跨行業(yè)場景下的環(huán)境適應性。

LPLM模型架構

6185174a-fec3-11ee-a297-92fbcf53809c.png

來源:有鹿機器人

LPLM 將物理世界抽象化,確保該類信息與 LLM 里特征的抽象等級對齊,將物理世界中每一個所指的實體顯式建模為 token,編碼幾何、語義、運動學與意圖信息。

此外,LPLM 在自然語言指令的編碼中加入了 3D grounding,一定程度上彌補了自然語言不夠精確的缺陷;其解碼器能夠通過不斷預測未來的方式去學習,從而加強了模型從海量無標簽數(shù)據(jù)中學習的能力。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2577

    文章

    55499

    瀏覽量

    793895
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4842

    瀏覽量

    108160
  • 攝像頭
    +關注

    關注

    61

    文章

    5115

    瀏覽量

    103491
  • 英偉達
    +關注

    關注

    23

    文章

    4115

    瀏覽量

    99613
  • 自動駕駛
    +關注

    關注

    794

    文章

    14987

    瀏覽量

    181480

原文標題:端到端智駕研究:E2E自動駕駛發(fā)展現(xiàn)狀

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    為什么一段式自動駕駛很難落地?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術在過去十中經(jīng)歷了從基礎輔助駕駛高度自動化系統(tǒng)的快速演進。在這一進程中,技術架構的選擇始終是決定
    的頭像 發(fā)表于 03-08 09:44 ?1795次閱讀
    為什么一段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>很難落地?

    自動駕駛為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領域,(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)車輛實際控制指令,全部交給一個統(tǒng)一的深度學習模型來完成。這和傳統(tǒng)的模
    的頭像 發(fā)表于 02-20 09:25 ?9542次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>為什么會出現(xiàn)黑盒現(xiàn)象?

    與模塊化自動駕駛的數(shù)據(jù)標注要求有何不同?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術路徑的每一次技術轉向,都伴隨著底層數(shù)據(jù)處理邏輯的徹底重構。過去,智駕系統(tǒng)普遍依賴模塊化設計,將駕駛任務拆解為感知、預測、規(guī)控等獨立環(huán)節(jié);而今,以
    的頭像 發(fā)表于 01-27 09:48 ?1113次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>與模塊化<b class='flag-5'>自動駕駛</b>的數(shù)據(jù)標注要求有何不同?

    如何訓練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓練的?是模仿學習、強化學習和離線強化學習這三類嗎?其實
    的頭像 發(fā)表于 12-08 16:31 ?1602次閱讀
    如何訓練好<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型?

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進行訓練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1851次閱讀

    自動駕駛中“一段式”和“二段式”有什么區(qū)別?

    [首發(fā)于智駕最前沿微信公眾號]最近有小伙伴提問,一段式和二段式有什么區(qū)別。其實說到
    的頭像 發(fā)表于 10-24 09:03 ?1402次閱讀
    <b class='flag-5'>自動駕駛</b>中“一段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”和“二段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”有什么區(qū)別?

    自動駕駛中常提的一段式(單段)是個啥?

    自動駕駛技術的發(fā)展,催生出技術的應用,一段式
    的頭像 發(fā)表于 10-18 10:16 ?1856次閱讀

    西井科技自動駕駛模型獲得國際認可

    近日,西井科技AI創(chuàng)研團隊在國際權威自動駕駛算法榜單NAVSIM v2中脫穎而出,憑借創(chuàng)新的自動駕駛模型,以綜合得分48.759的成績
    的頭像 發(fā)表于 10-15 17:20 ?1434次閱讀

    一文讀懂特斯拉自動駕駛FSD從輔助的演進

    、控制等環(huán)節(jié)各自負責不同的功能,各模塊用顯式代碼和規(guī)則來完成任務。隨著數(shù)據(jù)規(guī)模和算力增長,特斯拉開始把更多功能放到機器學習模型里,尤其是從2024推出的V12(標注為“Supervised”)開始,特斯拉開始大幅度推進“
    的頭像 發(fā)表于 10-11 09:13 ?1127次閱讀
    一文讀懂特斯拉<b class='flag-5'>自動駕駛</b>FSD從輔助<b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的演進

    自動駕駛大模型為什么會有不確定性?

    。為了能讓自動駕駛汽車做出正確、安全且符合邏輯的行駛動作,大模型被提了出來。
    的頭像 發(fā)表于 09-28 09:20 ?1017次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型為什么會有不確定性?

    自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔,再通過預定的接口協(xié)議將信息有序傳遞。與之相對照,“”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡為核心,將從攝像頭、雷達、激光雷達等傳感器采集
    的頭像 發(fā)表于 09-02 09:09 ?1008次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD
    的頭像 發(fā)表于 07-05 15:40 ?1961次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新<b class='flag-5'>研究</b>成果入選ICCV 2025

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術落地,(End-to-End)大模型也成為行業(yè)研究與應用的熱門方向。相較于傳統(tǒng)
    的頭像 發(fā)表于 07-04 16:50 ?1025次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    數(shù)據(jù)標注方案在自動駕駛領域的應用優(yōu)勢

    10-20TB,其中需要標注的數(shù)據(jù)占比超過60%。在這樣的背景下,數(shù)據(jù)標注方案應運而生,正在重塑自動駕駛的數(shù)據(jù)生產(chǎn)范式。
    的頭像 發(fā)表于 06-23 17:27 ?1189次閱讀

    一文帶你厘清自動駕駛架構差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術飛速發(fā)展,智能駕駛系統(tǒng)的設計思路也經(jīng)歷了從傳統(tǒng)模塊化架構
    的頭像 發(fā)表于 05-08 09:07 ?1195次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構差異
    浠水县| 冀州市| 兴国县| 大关县| 凤庆县| 泽普县| 千阳县| 江达县| 河源市| 汕头市| 中牟县| 松阳县| 宽甸| 永登县| 临潭县| 习水县| 石首市| 资溪县| 旅游| 元阳县| 雷州市| 溧阳市| 肃宁县| 新津县| 上犹县| 镇原县| 乐陵市| 陵水| 应城市| 体育| 綦江县| 宁乡县| 彰化县| 鱼台县| 运城市| 那坡县| 前郭尔| 临武县| 基隆市| 连城县| 香格里拉县|