論文の概要: FusionMotion: Multi-Sensor Asynchronous Fusion for Continuous Occupancy
Prediction via Neural-ODE
- arxiv url: http://arxiv.org/abs/2302.09585v1
- Date: Sun, 19 Feb 2023 14:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:42:07.939009
- Title: FusionMotion: Multi-Sensor Asynchronous Fusion for Continuous Occupancy
Prediction via Neural-ODE
- Title(参考訳): FusionMotion: ニューラルネットワークによる連続動作予測のためのマルチセンサ非同期核融合
- Authors: Yining Shi, Kun Jiang, Ke Wang, Jiusi Li, Yunlong Wang, Diange Yang
- Abstract要約: 本稿では,新しい鳥眼ビュー (BEV) の占有率予測器FusionMotionを提案する。
非同期マルチセンサデータの融合を実現し、変動時間間隔と時間的地平線で将来の占有マップを予測する。
大規模なnusとLyft L5データセットの実験では、FusionMotionが従来の方法よりも大幅に優れていたことが示されている。
- 参考スコア(独自算出の注目度): 8.578744819826712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occupancy maps are widely recognized as an efficient method for facilitating
robot motion planning in static environments. However, for intelligent
vehicles, occupancy of both the present and future moments is required to
ensure safe driving. In the automotive industry, the accurate and continuous
prediction of future occupancy maps in traffic scenarios remains a formidable
challenge. This paper investigates multi-sensor spatio-temporal fusion
strategies for continuous occupancy prediction in a systematic manner. This
paper presents FusionMotion, a novel bird's eye view (BEV) occupancy predictor
which is capable of achieving the fusion of asynchronous multi-sensor data and
predicting the future occupancy map with variable time intervals and temporal
horizons. Remarkably, FusionMotion features the adoption of neural ordinary
differential equations on recurrent neural networks for occupancy prediction.
FusionMotion learns derivatives of BEV features over temporal horizons, updates
the implicit sensor's BEV feature measurements and propagates future states for
each ODE step. Extensive experiments on large-scale nuScenes and Lyft L5
datasets demonstrate that FusionMotion significantly outperforms previous
methods. In addition, it outperforms the BEVFusion-style fusion strategy on the
Lyft L5 dataset while reducing synchronization requirements. Codes and models
will be made available.
- Abstract(参考訳): 静的環境下でロボットの動作計画を容易にする効率的な方法として,占有マップが広く認識されている。
しかし、インテリジェントな車両では、安全運転を確保するためには、現在と将来の両方の瞬間の占有が必要である。
自動車業界では、交通シナリオにおける将来の占有率マップの正確かつ継続的な予測は、依然として大きな課題である。
本稿では,連続占有予測のためのマルチセンサ時空間融合戦略を体系的に検討する。
本稿では,非同期マルチセンサデータの融合を実現し,時間間隔と時間軸の可変な将来の占有マップを予測可能な,新しい鳥眼視(bev)占有率予測器であるfusionmotionを提案する。
注目すべきは、FusionMotionは、占有率予測のためのリカレントニューラルネットワークにおけるニューラル常微分方程式の採用である。
FusionMotionは、時間的水平線上のBEV特徴の微分を学習し、暗黙センサのBEV特徴測定を更新し、ODEステップ毎に将来の状態を伝搬する。
大規模なnuScenesとLyft L5データセットに関する大規模な実験は、FusionMotionが従来の方法よりも大幅に優れていることを示している。
さらに、同期要件を削減しながら、lyft l5データセット上のbevfusionスタイルの融合戦略を上回っている。
コードとモデルは利用可能になる。
関連論文リスト
- FIMP: Future Interaction Modeling for Multi-Agent Motion Prediction [18.10147252674138]
動作予測(FIMP)のための未来のインタラクションモデリングを提案し,その将来的なインタラクションをエンドツーエンドで捉える。
実験により,今後のインタラクションモデリングにより性能が著しく向上し,Argoverseモーション予測ベンチマークの性能が向上することが示された。
論文 参考訳(メタデータ) (2024-01-29T14:41:55Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - Graph-Based Interaction-Aware Multimodal 2D Vehicle Trajectory
Prediction using Diffusion Graph Convolutional Networks [17.989423104706397]
本研究では,グラフに基づく対話型多モード軌道予測フレームワークを提案する。
このフレームワーク内では、車両の動きは時間変化グラフのノードとして概念化され、交通相互作用は動的隣接行列によって表現される。
我々は、意図特異的な特徴融合を採用し、歴史的および将来の埋め込みの適応的な統合を可能にする。
論文 参考訳(メタデータ) (2023-09-05T06:28:13Z) - Fusion-GRU: A Deep Learning Model for Future Bounding Box Prediction of
Traffic Agents in Risky Driving Videos [20.923004256768635]
Fusion-Gated Recurrent Unit (Fusion-GRU)は、将来のバウンディングボックスローカライゼーションのための新しいエンコーダデコーダアーキテクチャである。
提案手法は, ROL と HEV-I の2つの公開データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-08-12T18:35:59Z) - MTP-GO: Graph-Based Probabilistic Multi-Agent Trajectory Prediction with
Neural ODEs [2.4169078025984825]
MTP-GOというモデルを紹介します。
時間グラフニューラルネットワークを使用してシーンを符号化し、基盤となるモーションモデルへの入力を生成する。
結果は,提案モデルが様々なデータセットにまたがる予測能力を示す。
論文 参考訳(メタデータ) (2023-02-01T20:03:47Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - LookOut: Diverse Multi-Future Prediction and Planning for Self-Driving [139.33800431159446]
LookOutは、環境を共同で知覚し、センサーデータから様々な未来を予測するアプローチである。
本モデルでは,大規模自動運転データセットにおいて,より多様性があり,サンプル効率のよい動き予測を行う。
論文 参考訳(メタデータ) (2021-01-16T23:19:22Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。