在剛剛落幕的2026北京亦莊人形機器人半程馬拉松上,近四成參賽隊伍擺脫遙控器,實現自主奔跑。北斗時空智能與具身智能跨界融合,動態釐米級定位與感知能力是確保行進路徑精准與運動穩定的關鍵。
4月22日,時空智能科技企業千尋位置正式發佈“具身時空大腦(SpatiXBot)”產品集,為機器人提供統一時空底座,加速機器人在巡檢、安防、應急救援等場景中的規模化落地。“具身時空大腦”基於千尋位置時空智能全鏈路技術底座,融合通用大模型、自研專業模型的能力,構建起覆蓋室內外自主行走、環境感知與群體協同能力,幫助機器人從遙控走向自主、從單體作業走向群體智能。
在馬拉松中,自主奔跑意味著機器人要在開放戶外環境中獨立完成定位、路徑規劃、姿態控制與即時決策,要求機器人具備動態釐米級定位與感知能力。“具身時空大腦”中的“時空之眼”多源融合終端讓機器人在室內外環境中精准定位與無縫銜接。室外環境中,高精度GNSS模組為機器人提供釐米級方向感;室內則借助端側高算力支持的雙目V-SLAM(視覺同步定位與地圖構建)與視覺重定位技術,即時修正機器人行進過程中的累積誤差,複雜場景下也能保持釐米級定位精度,確保運動軌跡連續穩定。“具身時空大腦”還提供高精度地圖和路徑規劃,支持泛機器人的自主導航行動,這使得機器人在園區巡檢、城市安防、複雜地形巡查等場景中具備持續穩定運行的能力。
解決看得准、走得穩問題之後,真正能幹活的機器人還需要看得懂、會判斷。為此,“具身時空大腦”構建了面向具身智能的“訓推一體”平臺,打通模型訓練與推理部署,形成數據與演算法閉環。在實際應用中,大模型負責提供零樣本識別與校驗能力,小模型則通過持續訓練提升特定場景下的推理效率與識別精度。
千尋位置高級產品專家許允波介紹,以無人機水域巡檢為例,在專案初期,“訓推一體”平臺可基於多模態通用大模型,快速識別水面漂浮物等垃圾。隨著巡檢獲取的數據不斷積累,再訓練迭代專用視覺小模型,以降低幻覺、提升推理速度與準確率。同時,大模型對小模型的識別結果進行校準與補充,形成持續演進的數據飛輪。依託充足專項數據訓練的小模型,與大模型協同配合,最終可將目標識別準確率提升至95%以上。這一機制使機器人能夠在公安巡邏、電網巡檢、園區管理、應急救援等場景中“快速上崗”。
千尋位置CEO陳金培表示,“具身時空大腦”是幫助機器人理解環境、做出決策、執行任務的神經中樞,為機器人本體廠商提供北斗及視覺感測器融合的時空感知套件,提供多源融合的時空感知能力,“我們也會把這些本體廠商的機器人、機器狗、無人機、無人車等具身智能設備放到具體場景裏,提供訓練和推理能力以及基於時空的技能,加速機器人在真實世界規模化落地。”
來源:中國澎湃新聞