論文の概要: PriorMotion: Generative Class-Agnostic Motion Prediction with Raster-Vector Motion Field Priors
- arxiv url: http://arxiv.org/abs/2412.04020v2
- Date: Mon, 10 Mar 2025 13:44:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:05.495049
- Title: PriorMotion: Generative Class-Agnostic Motion Prediction with Raster-Vector Motion Field Priors
- Title(参考訳): PriorMotion: Raster-Vector Motion Field Priors を用いた生成型クラス非依存動作予測
- Authors: Kangan Qian, Jinyu Miao, Xinyu Jiao, Ziang Luo, Zheng Fu, Yining Shi, Yunlong Wang, Kun Jiang, Diange Yang,
- Abstract要約: textbfPriorMotionは,クラスに依存しない動作予測のために設計された,革新的な生成フレームワークである。
提案手法は,構造化ベクトル表現を用いて動作先行をキャプチャし,変動型オートエンコーダを用いて遅延空間における将来の動きを学習する。
高速移動物体の精度が約15.24%向上し, 一般化が3.59%向上し, 運動安定性が0.0163低下し, 遠隔地での予測誤差が31.52%減少した。
- 参考スコア(独自算出の注目度): 12.414957984956043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable spatial and motion perception is essential for safe autonomous navigation. Recently, class-agnostic motion prediction on bird's-eye view (BEV) cell grids derived from LiDAR point clouds has gained significant attention. However, existing frameworks typically perform cell classification and motion prediction on a per-pixel basis, neglecting important motion field priors such as rigidity constraints, temporal consistency, and future interactions between agents. These limitations lead to degraded performance, particularly in sparse and distant regions. To address these challenges, we introduce \textbf{PriorMotion}, an innovative generative framework designed for class-agnostic motion prediction that integrates essential motion priors by modeling them as distributions within a structured latent space. Specifically, our method captures structured motion priors using raster-vector representations and employs a variational autoencoder with distinct dynamic and static components to learn future motion distributions in the latent space. Experiments on the nuScenes dataset demonstrate that \textbf{PriorMotion} outperforms state-of-the-art methods across both traditional metrics and our newly proposed evaluation criteria. Notably, we achieve improvements of approximately 15.24\% in accuracy for fast-moving objects, an 3.59\% increase in generalization, a reduction of 0.0163 in motion stability, and a 31.52\% reduction in prediction errors in distant regions. Further validation on FMCW LiDAR sensors confirms the robustness of our approach.
- Abstract(参考訳): 安全な自律ナビゲーションには、信頼性の高い空間知覚と運動知覚が不可欠である。
近年,LiDAR点雲から誘導される鳥眼ビュー(BEV)セルグリッドのクラス別動作予測が注目されている。
しかし、既存のフレームワークは、通常、ピクセル単位での細胞分類とモーション予測を行い、剛性制約、時間的一貫性、エージェント間の将来の相互作用などの重要な運動場を無視する。
これらの制限は、特にスパースや遠く離れた地域で、性能の低下につながります。
これらの課題に対処するために、クラス非依存の動作予測のために設計された革新的な生成フレームワークである「textbf{PriorMotion}」を紹介した。
具体的には、ラスタベクトル表現を用いて、構造化された動き先行をキャプチャし、動的および静的な異なるコンポーネントを持つ変分オートエンコーダを用いて、潜在空間における将来の動き分布を学習する。
nuScenesデータセットの実験では、従来のメトリクスと新たに提案した評価基準の両方で、‘textbf{PriorMotion}’が最先端のメソッドよりも優れていることが示されている。
特に,高速移動物体の精度が約15.24\%向上し,一般化が3.59\%向上し,運動安定性が0.0163低下し,遠隔地での予測誤差が31.52\%低減した。
FMCW LiDARセンサのさらなる検証は、我々のアプローチの堅牢性を確認する。
関連論文リスト
- AttentiveGRU: Recurrent Spatio-Temporal Modeling for Advanced Radar-Based BEV Object Detection [5.5967570276373655]
鳥眼視(Bird's-eye view, BEV)は、先進的な3Dレーダーによる知覚システムにおいて重要である。
本稿では,アテンラプティブ(AttenRUtive)について紹介する。
論文 参考訳(メタデータ) (2025-04-01T09:10:47Z) - Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - Self-supervised Multi-future Occupancy Forecasting for Autonomous Driving [45.886941596233974]
LiDARで生成された占有グリッドマップ(L-OGM)は、シーン表現のための頑丈な鳥眼ビューを提供する。
提案するフレームワークは、生成アーキテクチャの潜在空間においてL-OGM予測を行う。
我々は、リアルタイムに高品質な予測を提供するシングルステップデコーダまたは拡散ベースのバッチデコーダを用いて予測をデコードする。
論文 参考訳(メタデータ) (2024-07-30T18:37:59Z) - ADM: Accelerated Diffusion Model via Estimated Priors for Robust Motion Prediction under Uncertainties [6.865435680843742]
本稿では,騒音に対する抵抗性を高めたエージェントの将来の軌道を積極的に予測する,拡散型・加速可能な新しいフレームワークを提案する。
本手法は,自律走行車に必要な厳格なリアルタイム運転基準を満たす。
Argoverse 1のモーション予測データセット上でのマルチエージェント動作予測において,大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-05-01T18:16:55Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - ARFA: An Asymmetric Receptive Field Autoencoder Model for Spatiotemporal
Prediction [55.30913411696375]
本稿では,非対称な受容場オートエンコーダ (ARFA) モデルを提案する。
エンコーダでは,大域的時間的特徴抽出のための大規模なカーネルモジュールを提案し,デコーダでは局所的時間的再構成のための小さなカーネルモジュールを開発する。
降水予測のための大規模レーダエコーデータセットであるRainBenchを構築し,その領域における気象データの不足に対処する。
論文 参考訳(メタデータ) (2023-09-01T07:55:53Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - CoMusion: Towards Consistent Stochastic Human Motion Prediction via Motion Diffusion [6.862357145175449]
本稿では,単一段階の終端拡散型HMPフレームワークであるCoMusionを提案する。
CoMusionは、スムーズな将来のポーズ予測性能が空間予測性能を改善するという洞察から着想を得ている。
提案手法はTransformer-GCNモジュール設計と分散スケジューラによって促進され,精度,現実性,一貫した動作を予測する。
論文 参考訳(メタデータ) (2023-05-21T19:31:56Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Think Twice before Driving: Towards Scalable Decoders for End-to-End
Autonomous Driving [74.28510044056706]
既存のメソッドは通常、分離されたエンコーダ-デコーダパラダイムを採用する。
本研究は,この問題を2つの原則で緩和することを目的としている。
まず、エンコーダの特徴に基づいて、粗い将来の位置と行動を予測する。
そして、その位置と動作を条件に、将来のシーンを想像して、それに従って運転した場合にその影響を確認する。
論文 参考訳(メタデータ) (2023-05-10T15:22:02Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - PREF: Predictability Regularized Neural Motion Fields [68.60019434498703]
ダイナミックなシーンで3Dの動きを知ることは、多くの視覚応用にとって不可欠である。
多視点設定における全ての点の運動を推定するために神経運動場を利用する。
予測可能な動きを正規化することを提案する。
論文 参考訳(メタデータ) (2022-09-21T22:32:37Z) - Bootstrap Motion Forecasting With Self-Consistent Constraints [52.88100002373369]
自己整合性制約を用いた動き予測をブートストラップする新しい枠組みを提案する。
運動予測タスクは、過去の空間的・時間的情報を組み込むことで、車両の将来の軌跡を予測することを目的としている。
提案手法は,既存手法の予測性能を常に向上することを示す。
論文 参考訳(メタデータ) (2022-04-12T14:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。