論文の概要: Open-World Motion Forecasting
- arxiv url: http://arxiv.org/abs/2603.09420v1
- Date: Tue, 10 Mar 2026 09:35:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.208665
- Title: Open-World Motion Forecasting
- Title(参考訳): オープンワールドモーション予測
- Authors: Nicolas Schischka, Nikhil Gosala, B Ravi Kiran, Senthil Yogamani, Abhinav Valada,
- Abstract要約: モーション予測は、シーン内のダイナミックエージェントの将来の軌跡を予測することを目的としており、自動運転車がシーンの進化について推論できるようにする。
既存のアプローチはクローズドワールド体制の下で動作し、固定オブジェクト分類と高品質な知覚へのアクセスを仮定する。
我々は,時間とともに新しいオブジェクトクラスを順次導入し,将来的なオブジェクトの軌跡をカメラ画像から直接推定する,オープンワールドモーション予測を導入する。
- 参考スコア(独自算出の注目度): 15.508091258980143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion forecasting aims to predict the future trajectories of dynamic agents in the scene, enabling autonomous vehicles to effectively reason about scene evolution. Existing approaches operate under the closed-world regime and assume fixed object taxonomy as well as access to high-quality perception. Therefore, they struggle in real-world settings where perception is imperfect and object taxonomy evolves over time. In this work, we bridge this fundamental gap by introducing open-world motion forecasting, a novel setting in which new object classes are sequentially introduced over time and future object trajectories are estimated directly from camera images. We tackle this setting by proposing the first end-to-end class-incremental motion forecasting framework to mitigate catastrophic forgetting while simultaneously learning to forecast newly introduced classes. When a new class is introduced, our framework employs a pseudo-labeling strategy to first generate motion forecasting pseudo-labels for all known classes which are then processed by a vision-language model to filter inconsistent and over-confident predictions. Parallelly, our approach further mitigates catastrophic forgetting by using a novel replay sampling strategy that leverages query feature variance to sample previous sequences with informative motion patterns. Extensive evaluation on the nuScenes and Argoverse 2 datasets demonstrates that our approach successfully resists catastrophic forgetting and maintains performance on previously learned classes while improving adaptation to novel ones. Further, we demonstrate that our approach supports zero-shot transfer to real-world driving and naturally extends to end-to-end class-incremental planning, enabling continual adaptation of the full autonomous driving system. We provide the code at https://omen.cs.uni-freiburg.de .
- Abstract(参考訳): モーション予測は、シーン内のダイナミックエージェントの将来の軌跡を予測することを目的としており、自動運転車がシーンの進化を効果的に推論できるようにする。
既存のアプローチはクローズドワールド体制の下で動作し、固定オブジェクト分類と高品質な知覚へのアクセスを仮定する。
そのため、知覚が不完全であり、オブジェクト分類が時間とともに進化する現実世界の環境では苦労している。
本研究では,時間とともに新しいオブジェクトクラスが順次導入され,将来的なオブジェクトトラジェクトリがカメライメージから直接推定される新たな設定であるオープンワールドモーション予測を導入することで,この基本的なギャップを埋める。
そこで我々は,新たに導入した授業の予測を同時に学習しながら,破滅的な忘れを軽減すべく,最初のエンドツーエンドのクラス増分動作予測フレームワークを提案する。
新しいクラスが導入されたとき、我々のフレームワークは、まず擬似ラベルを用いて、視覚言語モデルで処理されたすべての既知のクラスに対する動き予測擬似ラベルを生成し、一貫性のない、過信な予測をフィルタリングする。
また,提案手法は,従来からある情報的動作パターンを用いたクエリ特徴のばらつきを利用した新しいリプレイサンプリング手法を用いて,破滅的忘れを緩和する。
nuScenes と Argoverse 2 データセットの広範囲な評価は,本手法が破滅的な忘れ込みに抵抗し,新しいものへの適応性を高めつつ,従来学習したクラスの性能を維持することを実証している。
さらに,本手法は実世界走行へのゼロショット転送をサポートし,エンド・ツー・エンドのクラスインクリメンタル・プランニングに自然に拡張し,完全自律運転システムの継続的な適応を可能にすることを実証した。
私たちはhttps://omen.cs.uni-freiburg.deでコードを公開しています。
関連論文リスト
- Autoregressive End-to-End Planning with Time-Invariant Spatial Alignment and Multi-Objective Policy Refinement [15.002921311530374]
自動回帰モデルは、自動運転におけるエンドツーエンドの計画のための、強烈なベースラインである。
彼らのパフォーマンスは、過去の知覚データに将来の行動を条件にする必要があるため、時間的ミスアライメントによって制約される。
本稿では,初期環境特徴を一貫したエゴ中心のフレームに投影する時間不変アライメント(TISA)モジュールを提案する。
また、DPO(Direct Preference Optimization)を用いた多目的ポストトレーニングのステージを導入し、純粋な模倣を克服する。
論文 参考訳(メタデータ) (2025-09-25T09:24:45Z) - Foresight in Motion: Reinforcing Trajectory Prediction with Reward Heuristics [34.570579623171476]
The First Reasoning, Then Forecasting”は、行動意図を軌道予測のための空間的ガイダンスとして明示的に組み込む戦略である。
本稿では,新しいクエリ中心の逆強化学習方式を基礎とした,解釈可能な報酬駆動型意図推論手法を提案する。
提案手法は軌道予測の信頼性を著しく向上させ,最先端手法と比較して高い競争性能を実現する。
論文 参考訳(メタデータ) (2025-07-16T09:46:17Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - AdaOcc: Adaptive Forward View Transformation and Flow Modeling for 3D Occupancy and Flow Prediction [56.72301849123049]
CVPR 2024 における nuScenes Open-Occ データセットチャレンジにおいて,視覚中心の3次元活動とフロー予測トラックのソリューションを提案する。
我々の革新的なアプローチは、適応的なフォワード・ビュー・トランスフォーメーションとフロー・モデリングを取り入れることで、3次元の占有率とフロー予測を向上させる2段階のフレームワークである。
提案手法は回帰と分類を組み合わせることで,様々な場面におけるスケールの変動に対処し,予測フローを利用して将来のフレームに現行のボクセル特徴をワープする。
論文 参考訳(メタデータ) (2024-07-01T16:32:15Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - LOPR: Latent Occupancy PRediction using Generative Models [28.49346874213506]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。