哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

高德地圖公布ABot全棧具身智能技術(shù)架構(gòu)

高德地圖 ? 來源:高德地圖 ? 2026-04-24 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、 當(dāng)?shù)貓D開始“Dream World”

當(dāng)大模型從數(shù)字世界走向物理世界,具身智能正成為人工智能的下一個(gè)主戰(zhàn)場。然而,讓機(jī)器人真正在開放、非結(jié)構(gòu)化的真實(shí)環(huán)境中實(shí)現(xiàn)自主感知、決策與行動,仍面臨數(shù)據(jù)稀缺、技能泛化和可靠執(zhí)行三大核心瓶頸。

高德基于二十年時(shí)空數(shù)據(jù)積累與大規(guī)模地圖工程能力,提出了由世界模型(World Model)、導(dǎo)航模型(N系列)操作模型(M系列)和具身Harness架構(gòu)構(gòu)成的"三位一體"具身智能技術(shù)基座。該架構(gòu)以世界模型為想象引擎,以N0與M0為行動雙核,運(yùn)行于統(tǒng)一的Abot智能中樞之上,首次打通從環(huán)境理解、路徑規(guī)劃到精細(xì)操作的全閉環(huán)技術(shù)鏈路。同時(shí),我們?nèi)龑蛹軜?gòu)是真正面向具身AGI的,真正做到了一套模型部署輪式機(jī)器人、四足機(jī)器人、人形機(jī)器人,均有智能、魯棒的的真機(jī)和產(chǎn)品表現(xiàn)。

依托于20年在數(shù)據(jù)和智能方面的積累,高德正在將地圖時(shí)代沉淀的數(shù)據(jù)資產(chǎn)系統(tǒng)性地轉(zhuǎn)化為具身機(jī)器人的智能——從物理一致的神經(jīng)模擬器到可交互世界模型,從Unified的具身導(dǎo)航、操作大腦到面向通用具身機(jī)器人的Harness架構(gòu),高德正用自己20年對于物理世界的深刻理解,為具身AGI真正走向物理世界開啟了新篇章。

二 、ABot全棧技術(shù)架構(gòu)

ABot General EAI System 包含Data Infra Layer、Foundation Model Layer 和Agent Layer ,共同構(gòu)建“連續(xù)的真實(shí)世界數(shù)據(jù) → 可持續(xù)的算法迭代 → 長期真實(shí)的物理反饋”的完整閉環(huán)。

● Data Infra Layer 是地基。核心是 ABot-World 仿真引擎,批量合成 Video、Depth、Point Cloud、Trajectory 四類訓(xùn)練數(shù)據(jù),配合 RL Training Engine 在虛擬環(huán)境里定義獎(jiǎng)懲、反復(fù)試錯(cuò)。這一層本質(zhì)上是在用仿真替代成本極高的真實(shí)數(shù)據(jù)采集,是整個(gè)系統(tǒng)的天花板所在。

● Foundation Model Layer 是感知與決策核心。ABot-M 負(fù)責(zé)操作,ABot-N 負(fù)責(zé)導(dǎo)航,將機(jī)器人動作變成機(jī)器人的物理直覺。兩個(gè)模型分工訓(xùn)練、通過 Model Skill 機(jī)制組合調(diào)用,通過不同模型(導(dǎo)航、操作等)、skill組合完成長程、復(fù)雜任務(wù)。

● Agent Layer 是執(zhí)行層。ABot-Claw 具備任務(wù)規(guī)劃、多模態(tài)記憶、閉環(huán)糾錯(cuò)三個(gè)能力,針對的是長時(shí)序任務(wù)下的魯棒性問題——系統(tǒng)設(shè)計(jì)上默認(rèn)"會出錯(cuò)",而不是假設(shè)每步完美執(zhí)行。

bd7351c2-3d76-11f1-90a1-92fbcf53809c.png

bdec7a20-3d76-11f1-90a1-92fbcf53809c.png

三 、ABot-World:可交互具身世界模型

● 當(dāng)主流世界模型仍陷于“視覺幻覺”,ABot-World 已實(shí)現(xiàn)根本突破:全球首個(gè)將物理定律深度嵌入全流程的世界模型,不再是視頻生成器,而是為機(jī)器人服務(wù)的可微分、可進(jìn)化的物理級動力學(xué)引擎。

beb724e6-3d76-11f1-90a1-92fbcf53809c.png

其核心突破由四大支柱構(gòu)成:

● 具身原生架構(gòu):專為具身智能設(shè)計(jì)的14B DiT架構(gòu),以觀測與動作為輸入,在潛空間直接生成符合時(shí)空動力學(xué)的未來狀態(tài)序列;基于千萬級真實(shí)導(dǎo)航、操作數(shù)據(jù)與多層級采樣治理,打破任務(wù)壟斷,激活長尾技能,實(shí)現(xiàn)強(qiáng)泛化能力。

● 3DGS 冷啟動空間基座:面向手機(jī)拍攝、航測圖等稀疏輸入,構(gòu)建“粗建?!弑U嫘迯?fù)→蒸餾回環(huán)”流程,實(shí)現(xiàn)從低質(zhì)視頻到高質(zhì)量3D場景的自動化生成。

● 物理硬約束訓(xùn)練:首創(chuàng) Diffusion-DPO 物理偏好對齊框架,通過 VLM 生成規(guī)則清單、并進(jìn)行獨(dú)立判別,構(gòu)建優(yōu)劣樣本對,驅(qū)動模型抑制物理違規(guī)行為;融合拉格朗日動力學(xué)與3DGS重建,每幀均為含質(zhì)量、摩擦、接觸力等屬性的可微分物理快照。

● 雙引擎自進(jìn)化系統(tǒng):構(gòu)建“訓(xùn)練引擎 + 數(shù)據(jù)引擎”并行架構(gòu)。依托高德高精地圖與真實(shí)軌跡數(shù)據(jù),結(jié)合3DGS 技術(shù)實(shí)現(xiàn)厘米級重建與光照一致,支持多視角合成與動態(tài)擾動,共生產(chǎn)萬級 3D 真實(shí)場景、百萬級推理數(shù)據(jù)、千萬級訓(xùn)練軌跡,覆蓋99%典型生活場景;接入VLA閉環(huán),實(shí)現(xiàn)“預(yù)測即訓(xùn)練,演練即學(xué)習(xí)”的持續(xù)進(jìn)化;通過跨形態(tài)動作映射,統(tǒng)一實(shí)現(xiàn)單臂、雙臂、靈巧手等多形態(tài)精確控制。

bf156d6c-3d76-11f1-90a1-92fbcf53809c.png

● 行業(yè)權(quán)威具身榜單榜首成績:涵蓋由李飛飛團(tuán)隊(duì)主導(dǎo)的 WorldScore(截至2026.04.08)、清華主辦的 WorldArena、智元機(jī)器人發(fā)起的 Agibot World Challenge(截至2026.04.15);

● 對標(biāo)行業(yè)頂尖和新興強(qiáng)手:ABot-World 直面 OpenAI (Sora 2.0)、Google DeepMind (Veo 3.1)、NVIDIA (Cosmos) 等國際頂尖巨頭,以及 GigaWorld、UnifoLM 等新興強(qiáng)手的激烈競爭。在物理合理性性、動作可控性與3D一致性等核心指標(biāo)上取得顯著提升,在WorldArena榜單上,超過Veo 3.1 10%;

bf9ad736-3d76-11f1-90a1-92fbcf53809c.png

下面看一下我們真實(shí)的效果,首先是我們的城市級的生成式重建——ABot-3DGS,一個(gè)無限尺度的可編輯世界場景渲染。

同時(shí),我們打造了專門為具身導(dǎo)航、操作打造的物理世界模型——ABot-PhysWorld,從像素走向物理,從視覺走向行動。

同時(shí),高德的可交互世界模型ABot-World即將發(fā)布,支持消費(fèi)級顯卡實(shí)時(shí)交互與10min級別長程記憶,請關(guān)注我們后續(xù)官網(wǎng)消息。

四、 ABot-N系列& ABot-M系列:跨本體具身導(dǎo)航、操作基座模型

c02bbb52-3d76-11f1-90a1-92fbcf53809c.png

c0b03bde-3d76-11f1-90a1-92fbcf53809c.png

ABot-N(Navigation): 作為全球首個(gè)實(shí)現(xiàn)五大核心導(dǎo)航任務(wù)"大一統(tǒng)"的VLA基座模型,ABot-N是真正理解人類意圖、自主決策、持續(xù)進(jìn)化的具身導(dǎo)航智能體。

Heterogeneous Target Encoder:ABot-N通過統(tǒng)一的多模態(tài)編碼方案整合:全景與單目視覺自適應(yīng)切換,文本指令、物體類別、POI名稱與幾何坐標(biāo)異構(gòu)表達(dá)統(tǒng)一映射至共享語義空間;時(shí)空記憶機(jī)制則賦予模型在POMDP環(huán)境中保持上下文連貫的能力,真正將感知與行動融為一體。

RL Alignment:ABot-N提出SAFE-GRPO強(qiáng)化學(xué)習(xí)框架,讓模型從根本上理解"物理可通行≠社會合規(guī)"的因果邏輯,主動規(guī)避闖入車道、踩踏草坪等行為。三階段課程學(xué)習(xí)(Cognitive Warm-up → Sensorimotor SFT → Value Alignment),確保運(yùn)動能力與社會規(guī)范的協(xié)同內(nèi)化。

ABot-N在VLN-CE(R2R/RxR)、HM3D-OVON、EVT-Bench等7大權(quán)威基準(zhǔn)上全面刷新SOTA,在導(dǎo)航精度、社會合規(guī)性、zero-shot泛化三個(gè)維度實(shí)現(xiàn)系統(tǒng)性領(lǐng)先。

c1188cd4-3d76-11f1-90a1-92fbcf53809c.png

● ABot-M(Manipulation):構(gòu)建開放協(xié)同的通用操作智能體系,通過系統(tǒng)性架構(gòu)創(chuàng)新,在泛化能力、魯棒性與跨形態(tài)遷移性能上實(shí)現(xiàn)全面突破,推動具身操作智能邁向開放協(xié)作的新階段。

○ 動作流行學(xué)習(xí)假設(shè)(Action Manifold Learning):DiT 架構(gòu)直接預(yù)測連續(xù)、可行的動作軌跡,將學(xué)習(xí)目標(biāo)由去噪重構(gòu)轉(zhuǎn)為流形投影,顯著提升動作生成的穩(wěn)定性與解碼效率,在高自由度全身控制等復(fù)雜場景中展現(xiàn)出更強(qiáng)的可擴(kuò)展性。

○ 語義理解Expert × 空間先驗(yàn)Expert :構(gòu)建雙流并行感知體系,語義流繼承 VLM 的跨模態(tài)理解能力,解析高層任務(wù)意圖;幾何流則通過3D Perception Injection 和 Multi-View Implicit Fusion 機(jī)制,增強(qiáng)空間結(jié)構(gòu)認(rèn)知。兩路特征通過 cross attention 機(jī)制協(xié)同融合,顯著提升精細(xì)操作任務(wù)的執(zhí)行精度。

○ 統(tǒng)一動作表征與可持續(xù)泛化:動作統(tǒng)一為 EEF 坐標(biāo)系下的增量表達(dá),橋接不同機(jī)械結(jié)構(gòu)的運(yùn)動差異;padding 機(jī)制實(shí)現(xiàn)單/雙臂任務(wù)在單一網(wǎng)絡(luò)中的參數(shù)共享與統(tǒng)一建模。結(jié)合任務(wù)級分層采樣與“預(yù)訓(xùn)練 + 空間感知微調(diào)”的兩階段訓(xùn)練范式,模型可在持續(xù)接入新形態(tài)、新模態(tài)與新任務(wù)的同時(shí),保持已有技能的穩(wěn)定性,支持能力的漸進(jìn)式演進(jìn)。

○ 四大權(quán)威具身操作基準(zhǔn)SOTA性能:涵蓋斯坦福主導(dǎo)的 LIBERO(單臂長程任務(wù))、UT Austin 與 NVIDIA 聯(lián)合發(fā)布的 RoboCasa(雙臂高維操作)、清華推出的 RoboTwin 2.0(跨場景/任務(wù)泛化)以及 LIBERO-Plus(環(huán)境魯棒性);

○ 對標(biāo)國際主流VLA方案:直面 Physical Intelligence (π0.5)、NVIDIA (GR00T-N1)、斯坦福 (OpenVLA)、北大 (X-VLA) 等業(yè)界代表性工作,在長程任務(wù)成功率、跨本體遷移率及擾動魯棒性等核心指標(biāo)上取得顯著提升,在RoboCasa任務(wù)上較 GR00T-N1 提升 11%成功率,在RoboTwin任務(wù)上較π0.5提升44%成功率;

c1a6e632-3d76-11f1-90a1-92fbcf53809c.png

下面ABot-N0在真機(jī)上的效果

● ABot-N、ABot-M的多項(xiàng)子成果(含多篇 ICLR,CVPR 2026 Oral等),從模型架構(gòu)、記憶范式、Reasoning、強(qiáng)化學(xué)習(xí)等方向,不斷探索具身導(dǎo)航與操作的技術(shù)邊界。

c237521c-3d76-11f1-90a1-92fbcf53809c.png

五、 ABot-Claw:通用具身Harness架構(gòu)

當(dāng)前具身智能面臨長程任務(wù)閉環(huán)難、多機(jī)協(xié)同弱、知識不共享等核心瓶頸。ABot-Claw 提出一種集中式具身 Harness 架構(gòu),將異構(gòu)機(jī)器人統(tǒng)一于共享認(rèn)知框架之下,打造具備調(diào)度、記憶、分層控制與社會對齊能力的“智能中樞”。

c29d1368-3d76-11f1-90a1-92fbcf53809c.png

c3091b80-3d76-11f1-90a1-92fbcf53809c.png

其核心架構(gòu)聚焦四大技術(shù)方向:

● 統(tǒng)一調(diào)度與跨體協(xié)同:基于能力描述的動態(tài)調(diào)度機(jī)制,實(shí)現(xiàn)機(jī)械臂、人形、四足等多形態(tài)機(jī)器人的并行協(xié)作與任務(wù)接力,支持故障時(shí)自動接續(xù),保障任務(wù)連續(xù)性。

● 跨具身共享Spatial Memory:以全局空間坐標(biāo)為錨點(diǎn)構(gòu)建持久化多模態(tài)記憶系統(tǒng),將對象位姿、地點(diǎn)語義與關(guān)鍵幀視覺特征統(tǒng)一映射至共享的空間語義地圖中;環(huán)境觀測與歷史行為具備可沉淀、可基于 Hybrid Retrieval(空間/語義混合檢索)的特性,新設(shè)備通過讀取全局 Context 實(shí)現(xiàn)知識零成本繼承,支撐長周期運(yùn)行下的跨會話連續(xù)性與跨具身協(xié)同作業(yè)。

● 分層協(xié)同架構(gòu):采用 “云端大腦 - 邊緣響應(yīng)” 兩級設(shè)計(jì),兼顧智能深度與執(zhí)行可靠性:

○ Cloud-Brain (L3/L4 Planning) 負(fù)責(zé)高層任務(wù)分解與規(guī)劃;

○ Edge-Claw (L1/L2 Control) 實(shí)現(xiàn)本地高頻實(shí)時(shí)控制,確保物理安全與響應(yīng)速度。

● 社會化行為對齊:引入 RL 相關(guān)技術(shù),通過多智能體相對評估,自主學(xué)習(xí)電梯避讓、行人禮讓等社會規(guī)范,實(shí)現(xiàn)自然融入人類環(huán)境。

ABot-Claw 已經(jīng)具備閉環(huán)反饋與在線修正能力,在模糊指令理解、部分可觀搜索、跨機(jī)導(dǎo)引等復(fù)雜場景中驗(yàn)證其魯棒性與泛化性。它標(biāo)志著機(jī)器人系統(tǒng)從“單體智能”向“體系智能”的演進(jìn),機(jī)器人不再是孤立個(gè)體,而是共享記憶、統(tǒng)一調(diào)度、協(xié)同進(jìn)化的智能網(wǎng)絡(luò)節(jié)點(diǎn)。

下面,大家來看一下ABot-Claw部署在真機(jī)的表現(xiàn)吧。

Round1:四足機(jī)器人執(zhí)行長程任務(wù)——自主取咖啡

Round2:人形機(jī)器人執(zhí)行復(fù)雜長程任務(wù)——接待陌生訪客

Round3:多機(jī)械臂協(xié)作——廚房操作

六 、生態(tài)與愿景

1. 范式:Physical AI數(shù)據(jù)飛輪已經(jīng)跑通

"連續(xù)數(shù)據(jù) → 算法迭代 → 人群反饋"這個(gè)閉環(huán),在高德的系統(tǒng)里已經(jīng)不是設(shè)計(jì)圖,而是在持續(xù)運(yùn)轉(zhuǎn)的事實(shí)。每天億級的真實(shí)出行數(shù)據(jù)進(jìn)入系統(tǒng),算法在這個(gè)基礎(chǔ)上迭代,迭代的結(jié)果再通過產(chǎn)品回到用戶,用戶的行為反饋又成為下一輪訓(xùn)練的信號。這個(gè)循環(huán)每轉(zhuǎn)一圈,系統(tǒng)對物理世界的理解就加深一層。

這件事的意義不只是"我們的模型更準(zhǔn)了"。它意味著高德建立了一個(gè)隨時(shí)間自動增值的資產(chǎn)——數(shù)據(jù)規(guī)模越大,算法越好;算法越好,產(chǎn)品越能吸引用戶;用戶越多,數(shù)據(jù)規(guī)模越大。競爭優(yōu)勢不是某個(gè)時(shí)間點(diǎn)的領(lǐng)先,而是飛輪本身的轉(zhuǎn)速。

2. 開源:邀請行業(yè)共建空間智能與具身智能生態(tài)

今天,高德宣布開源部分空間智能與具身智能能力。這不是公關(guān)動作,是一個(gè)戰(zhàn)略選擇:我們相信,空間智能要成為具身時(shí)代的基礎(chǔ)設(shè)施,前提是有足夠多的開發(fā)者、合作伙伴、硬件廠商在同一套語言上構(gòu)建各自的能力。封閉的護(hù)城河會減慢整個(gè)行業(yè)的速度,開放的生態(tài)才能讓標(biāo)準(zhǔn)真正落地。

開源的部分能力,將覆蓋ABot技術(shù)的全棧(ABot-World、ABot-M、ABot-N、ABot-Claw等),我們希望這些能力成為合作伙伴在具身場景下構(gòu)建應(yīng)用的起點(diǎn),而不是每個(gè)人都要從零開始解決的基礎(chǔ)問題。"AMAP-AI Inside"的含義,正是在這里——不是高德一家的產(chǎn)品,而是一個(gè)行業(yè)可以共同依賴的空間智能底座。

詳細(xì)信息請關(guān)注Amap CV Lab官方網(wǎng)站:https://amap-cvlab.github.io/

3. 結(jié)語:為行業(yè)繪制標(biāo)準(zhǔn)航線

高德和行業(yè)的合作伙伴,共同期待具身GPT時(shí)刻的到來。ABot的技術(shù)體系,給行業(yè)一個(gè)很好的實(shí)踐方案。它意味著機(jī)器第一次有了對物理世界的內(nèi)在模型,能夠在行動之前預(yù)測后果、在出錯(cuò)之后理解原因。這是從"會執(zhí)行"到"會理解"的本質(zhì)躍遷,是整個(gè)行業(yè)走向規(guī)模商業(yè)化的真正起點(diǎn)。

高德正在做的,就是這件事——不是第一個(gè)出發(fā)的,但我們有二十年對物理世界的丈量,有已經(jīng)跑通的數(shù)據(jù)飛輪,有開放生態(tài)的決心。我們不是在宣布終點(diǎn),我們是在為行業(yè)繪制一條走向大規(guī)模商業(yè)化的標(biāo)準(zhǔn)航線。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31442

    瀏覽量

    223641
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3818

    瀏覽量

    52268
  • 高德地圖
    +關(guān)注

    關(guān)注

    1

    文章

    74

    瀏覽量

    7116

原文標(biāo)題:當(dāng)空間智能從像素走向物理世界——高德公布ABot技術(shù)全棧

文章出處:【微信號:gaodeditu,微信公眾號:高德地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    硬件鏈自主,昇騰芯+香橙派主控+國產(chǎn)關(guān)節(jié)傳感器,智能硬件國產(chǎn)化全景解析

    在全球智能競賽白熱化的 2026 年,中國正以自主可控的技術(shù)路徑實(shí)現(xiàn)彎道超車。頭部新能源
    的頭像 發(fā)表于 04-10 16:37 ?150次閱讀

    量開源操作基座模型ABot-M0

    近日,宣布正式量開源ABot-M0——全球首個(gè)基于統(tǒng)一架構(gòu)的機(jī)器人
    的頭像 發(fā)表于 04-01 16:00 ?682次閱讀
    <b class='flag-5'>高</b><b class='flag-5'>德</b><b class='flag-5'>全</b>量開源<b class='flag-5'>具</b><b class='flag-5'>身</b>操作基座模型<b class='flag-5'>ABot</b>-M0

    華清遠(yuǎn)見AI工程師課程重磅升級!新增智能機(jī)器人+大模型課程深度強(qiáng)化,搶占AI高薪崗位!

    華清遠(yuǎn)見人工智能工程師實(shí)戰(zhàn)課歷經(jīng)6年打磨,緊跟AI技術(shù)迭代實(shí)時(shí)更新——2024年大模型風(fēng)口興起便同步融入課程,2025年隨著多模態(tài)技術(shù)
    的頭像 發(fā)表于 03-25 14:16 ?783次閱讀
    華清遠(yuǎn)見AI<b class='flag-5'>全</b><b class='flag-5'>棧</b>工程師課程重磅升級!新增<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>機(jī)器人+大模型課程深度強(qiáng)化,搶占AI高薪崗位!

    智能發(fā)展報(bào)告(2025年)》

    國家未來產(chǎn)業(yè)重點(diǎn)培育清單的重大政策背景,全面呈現(xiàn)了智能從“科研試驗(yàn)”邁向“進(jìn)廠入戶”的關(guān)鍵發(fā)展階段。報(bào)告深入剖析了
    的頭像 發(fā)表于 02-03 11:17 ?1248次閱讀
    《<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>發(fā)展報(bào)告(2025年)》

    智能交流會

    。展會匯聚 90%+ 核心部件國產(chǎn)化供應(yīng)鏈,可快速實(shí)現(xiàn)技術(shù)落地,坐享粵港澳大灣區(qū) “機(jī)器人谷” 核心紅利。 2 、同期多展聯(lián)動 與工業(yè)自動化展、機(jī)器視覺展同期舉辦,形成 “感知(視覺)→決策(
    發(fā)表于 01-22 09:55

    思嵐科技獲評2025中國智能創(chuàng)新企業(yè)TOP10

    在由中國領(lǐng)先的產(chǎn)業(yè)創(chuàng)新服務(wù)平臺億歐主辦的WIM2025創(chuàng)新者年會上,思嵐科技憑借在技術(shù)突破、市場占有率及規(guī)?;桓赌芰Φ确矫娴木C合卓越表現(xiàn),獲評2025中國
    的頭像 發(fā)表于 01-05 10:01 ?1108次閱讀

    全方位解讀黑芝麻智能SesameX多維智能計(jì)算平臺

    本文圍繞 SesameX 多維智能計(jì)算平臺的技術(shù)路徑展開,作為一款真正意義上的“機(jī)器人
    的頭像 發(fā)表于 12-23 11:30 ?1577次閱讀
    全方位解讀黑芝麻<b class='flag-5'>智能</b>SesameX多維<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>計(jì)算平臺

    2025開放原子開發(fā)者大會智能分論壇成功舉辦

    11月22日,2025開放原子開發(fā)者大會——智能分論壇暨機(jī)器人工作坊在北京順利舉辦。論壇聚焦
    的頭像 發(fā)表于 11-27 14:57 ?1369次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+智能芯片

    可以被稱為第一人稱視角。 第一人稱視角:指一個(gè)實(shí)體本身在觀察或經(jīng)歷事物時(shí),所能夠看到或感知到的角度。 二、AI感知技術(shù)與芯片 智能3個(gè)層次組成:感知層、認(rèn)知層和決策行動層。 感知層
    發(fā)表于 09-18 11:45

    自動駕駛中常提的“”是個(gè)啥?有必要“”嗎?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,越來越多車企公布了自己的自動駕駛方案,在很多車企的宣傳中,會使用“自研”的說法來證明自己的實(shí)力。所謂“
    的頭像 發(fā)表于 08-27 09:43 ?1405次閱讀
    自動駕駛中常提的“<b class='flag-5'>全</b><b class='flag-5'>棧</b>”是個(gè)啥?有必要“<b class='flag-5'>全</b><b class='flag-5'>棧</b>”嗎?

    寫給小白的“智能”入門科普

    最近智能這個(gè)概念很火。那么,究竟什么是智能?它包括哪些類別和關(guān)鍵
    的頭像 發(fā)表于 08-21 14:15 ?2948次閱讀
    寫給小白的“<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>”入門科普

    東風(fēng)汽車加速智能領(lǐng)域技術(shù)攻關(guān)

    近日,湖北衛(wèi)視“湖北新聞”和“湖北發(fā)布”接連報(bào)道東風(fēng)汽車加速智能領(lǐng)域技術(shù)攻關(guān),牽頭成立汽車
    的頭像 發(fā)表于 07-21 14:19 ?1032次閱讀

    智能驅(qū)動未來智造技術(shù)應(yīng)用論壇”在深圓滿舉行

    2025年6月5日,深圳國際會展中心,“智能驅(qū)動未來智造技術(shù)應(yīng)用論壇”成功舉辦。本次論壇聚焦
    的頭像 發(fā)表于 06-09 09:58 ?557次閱讀
    “<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>驅(qū)動未來智造<b class='flag-5'>技術(shù)</b>應(yīng)用論壇”在深圓滿舉行

    地圖與Rokid達(dá)成合作

    近日,地圖與Rokid宣布達(dá)成合作,將共同推出基于全場景智能眼鏡Rokid Glasses的全球首個(gè)導(dǎo)航智能體(NaviAgent)應(yīng)用
    的頭像 發(fā)表于 05-20 16:00 ?928次閱讀
    乌恰县| 平阴县| 孟津县| 广昌县| 民县| 松江区| 遵化市| 康乐县| 遂平县| 尚志市| 陇南市| 焦作市| 宁夏| 白河县| 湖北省| 鄂尔多斯市| 永仁县| 永顺县| 涿州市| 光山县| 广平县| 修武县| 曲麻莱县| 监利县| 克拉玛依市| 务川| 洛宁县| 拉孜县| 襄垣县| 襄樊市| 施秉县| 新宾| 醴陵市| 边坝县| 井陉县| 平和县| 南丹县| 宝鸡市| 武强县| 呼和浩特市| 孝昌县|