論文の概要: DeMo++: Motion Decoupling for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2507.17342v2
- Date: Wed, 06 Aug 2025 04:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 15:43:09.310005
- Title: DeMo++: Motion Decoupling for Autonomous Driving
- Title(参考訳): DeMo++: 自律運転のためのモーションデカップリング
- Authors: Bozhou Zhang, Nan Song, Xiatian Zhu, Li Zhang,
- Abstract要約: 動作意図を2つの異なるコンポーネントに分離するフレームワークであるDeMo++を提案する。
隣接するシーンにおける動き間の関係を探索するために,クロスシーンの軌道間相互作用機構を導入する。
DeMo++は、モーション予測(Argoverse 2とnuScenes)、モーション計画(nuPlan)、エンドツーエンド計画(SIM)など、さまざまなベンチマークで最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 41.6423398623095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion forecasting and planning are tasked with estimating the trajectories of traffic agents and the ego vehicle, respectively, to ensure the safety and efficiency of autonomous driving systems in dynamically changing environments. State-of-the-art methods typically adopt a one-query-one-trajectory paradigm, where each query corresponds to a unique trajectory for predicting multi-mode trajectories. While this paradigm can produce diverse motion intentions, it often falls short in modeling the intricate spatiotemporal evolution of trajectories, which can lead to collisions or suboptimal outcomes. To overcome this limitation, we propose DeMo++, a framework that decouples motion estimation into two distinct components: holistic motion intentions to capture the diverse potential directions of movement, and fine spatiotemporal states to track the agent's dynamic progress within the scene and enable a self-refinement capability. Further, we introduce a cross-scene trajectory interaction mechanism to explore the relationships between motions in adjacent scenes. This allows DeMo++ to comprehensively model both the diversity of motion intentions and the spatiotemporal evolution of each trajectory. To effectively implement this framework, we developed a hybrid model combining Attention and Mamba. This architecture leverages the strengths of both mechanisms for efficient scene information aggregation and precise trajectory state sequence modeling. Extensive experiments demonstrate that DeMo++ achieves state-of-the-art performance across various benchmarks, including motion forecasting (Argoverse 2 and nuScenes), motion planning (nuPlan), and end-to-end planning (NAVSIM).
- Abstract(参考訳): 動的に変化する環境下での自律運転システムの安全性と効率を確保するため、交通機関とエゴ車両の軌跡をそれぞれ推定する。
State-of-the-artメソッドは通常、1-query-one-trajectoryパラダイムを採用し、各クエリはマルチモードのトラジェクトリを予測するためのユニークなトラジェクトリに対応する。
このパラダイムは様々な動きの意図を生み出すことができるが、しばしば軌道の複雑な時空間進化をモデル化するに足りず、衝突や準最適結果をもたらす。
この制限を克服するために,動作推定を多種多様な移動方向を捉えるための全体的動き意図と,シーン内のエージェントのダイナミックな進行を追跡し,自己抑制機能を実現するための時空間の微細化という,2つの異なる構成要素に分離するフレームワークであるDeMo++を提案する。
さらに,隣接するシーンにおける動きの関連性を調べるために,クロスシーン・トラジェクトリ・インタラクション機構を導入する。
これによりDeMo++は、動きの意図の多様性と各軌道の時空間的進化の両方を包括的にモデル化することができる。
このフレームワークを効果的に実装するために,AttentionとMambaを組み合わせたハイブリッドモデルを開発した。
このアーキテクチャは、効率的なシーン情報集約と正確な軌道状態シーケンスモデリングのための両方のメカニズムの強みを利用する。
大規模な実験により、DeMo++はモーション予測(Argoverse 2とnuScenes)、モーション計画(nuPlan)、エンドツーエンド計画(NAVSIM)など、さまざまなベンチマークで最先端のパフォーマンスを達成した。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - iMoT: Inertial Motion Transformer for Inertial Navigation [0.5199807441687141]
iMoTは、革新的なトランスフォーマーベースの慣性オドメトリー法である。
正確な位置推定のために、運動と回転のモードからクロスモーダル情報を取得する。
iMoTは軌道再構成において、より優れたロバスト性と精度を実現するため、最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-12-13T22:52:47Z) - Motion Forecasting in Continuous Driving [41.6423398623095]
自動運転では、自動運転車が動くと、動きの予測が繰り返し繰り返される。
既存の予測方法は、特定の範囲内で各走行シーンを独立に処理する。
本稿では,連続運転のための新しい動き予測フレームワークであるRealMotionを提案する。
論文 参考訳(メタデータ) (2024-10-08T13:04:57Z) - DeMo: Decoupling Motion Forecasting into Directional Intentions and Dynamic States [6.856351850183536]
マルチモーダルなトラジェクトリクエリを2つのタイプに分離するフレームワークであるDeMoを紹介する。
この形式を利用することで、軌道の多モード性と動的進化特性を別々に最適化する。
さらに,グローバルな情報集約と状態シーケンスモデリングのためのアテンションとマンバの併用手法についても紹介する。
論文 参考訳(メタデータ) (2024-10-08T12:27:49Z) - Generalizable Implicit Motion Modeling for Video Frame Interpolation [51.966062283735596]
フローベースビデオフレーム補間(VFI)における動きの重要性
本稿では,動きモデリングVFIの新規かつ効果的なアプローチである一般インプリシット・モーション・モデリング(IMM)を紹介する。
我々のGIMMは、正確にモデル化された動きを供給することによって、既存のフローベースVFIワークと容易に統合できる。
論文 参考訳(メタデータ) (2024-07-11T17:13:15Z) - SceneDM: Scene-level Multi-agent Trajectory Generation with Consistent
Diffusion Models [10.057312592344507]
本研究では,SceneDMと呼ばれる拡散モデルに基づく新しいフレームワークを提案する。
SceneDMはSim Agents Benchmarkで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-11-27T11:39:27Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - MotionRNN: A Flexible Model for Video Prediction with Spacetime-Varying
Motions [70.30211294212603]
本稿では,空間と時間の両方に連続する時空変動を予測できる新たな次元からビデオ予測を行う。
本研究では,動きの複雑な変動を捉え,時空変化に適応できるMotionRNNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-03T08:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。