論文の概要: FusionMotion: Multi-Sensor Asynchronous Fusion for Continuous Occupancy
Prediction via Neural-ODE
- arxiv url: http://arxiv.org/abs/2302.09585v1
- Date: Sun, 19 Feb 2023 14:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:42:07.939009
- Title: FusionMotion: Multi-Sensor Asynchronous Fusion for Continuous Occupancy
Prediction via Neural-ODE
- Title(参考訳): FusionMotion: ニューラルネットワークによる連続動作予測のためのマルチセンサ非同期核融合
- Authors: Yining Shi, Kun Jiang, Ke Wang, Jiusi Li, Yunlong Wang, Diange Yang
- Abstract要約: 本稿では,新しい鳥眼ビュー (BEV) の占有率予測器FusionMotionを提案する。
非同期マルチセンサデータの融合を実現し、変動時間間隔と時間的地平線で将来の占有マップを予測する。
大規模なnusとLyft L5データセットの実験では、FusionMotionが従来の方法よりも大幅に優れていたことが示されている。
- 参考スコア(独自算出の注目度): 8.578744819826712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occupancy maps are widely recognized as an efficient method for facilitating
robot motion planning in static environments. However, for intelligent
vehicles, occupancy of both the present and future moments is required to
ensure safe driving. In the automotive industry, the accurate and continuous
prediction of future occupancy maps in traffic scenarios remains a formidable
challenge. This paper investigates multi-sensor spatio-temporal fusion
strategies for continuous occupancy prediction in a systematic manner. This
paper presents FusionMotion, a novel bird's eye view (BEV) occupancy predictor
which is capable of achieving the fusion of asynchronous multi-sensor data and
predicting the future occupancy map with variable time intervals and temporal
horizons. Remarkably, FusionMotion features the adoption of neural ordinary
differential equations on recurrent neural networks for occupancy prediction.
FusionMotion learns derivatives of BEV features over temporal horizons, updates
the implicit sensor's BEV feature measurements and propagates future states for
each ODE step. Extensive experiments on large-scale nuScenes and Lyft L5
datasets demonstrate that FusionMotion significantly outperforms previous
methods. In addition, it outperforms the BEVFusion-style fusion strategy on the
Lyft L5 dataset while reducing synchronization requirements. Codes and models
will be made available.
- Abstract(参考訳): 静的環境下でロボットの動作計画を容易にする効率的な方法として,占有マップが広く認識されている。
しかし、インテリジェントな車両では、安全運転を確保するためには、現在と将来の両方の瞬間の占有が必要である。
自動車業界では、交通シナリオにおける将来の占有率マップの正確かつ継続的な予測は、依然として大きな課題である。
本稿では,連続占有予測のためのマルチセンサ時空間融合戦略を体系的に検討する。
本稿では,非同期マルチセンサデータの融合を実現し,時間間隔と時間軸の可変な将来の占有マップを予測可能な,新しい鳥眼視(bev)占有率予測器であるfusionmotionを提案する。
注目すべきは、FusionMotionは、占有率予測のためのリカレントニューラルネットワークにおけるニューラル常微分方程式の採用である。
FusionMotionは、時間的水平線上のBEV特徴の微分を学習し、暗黙センサのBEV特徴測定を更新し、ODEステップ毎に将来の状態を伝搬する。
大規模なnuScenesとLyft L5データセットに関する大規模な実験は、FusionMotionが従来の方法よりも大幅に優れていることを示している。
さらに、同期要件を削減しながら、lyft l5データセット上のbevfusionスタイルの融合戦略を上回っている。
コードとモデルは利用可能になる。
関連論文リスト
- Physics-guided Active Sample Reweighting for Urban Flow Prediction [75.24539704456791]
都市フロー予測は、バス、タクシー、ライド駆動モデルといった交通サービスのスループットを見積もる、微妙な時間的モデリングである。
最近の予測解は、物理学誘導機械学習(PGML)の概念による改善をもたらす。
我々は、PN(atized Physics-guided Network)を開発し、P-GASR(Physical-guided Active Sample Reweighting)を提案する。
論文 参考訳(メタデータ) (2024-07-18T15:44:23Z) - MemFlow: Optical Flow Estimation and Prediction with Memory [54.22820729477756]
本稿では,メモリを用いた光フロー推定と予測をリアルタイムに行うMemFlowを提案する。
本手法では,メモリの読み出しと更新を行うモジュールをリアルタイムに収集する。
われわれのアプローチは、過去の観測に基づいて、将来の光流の予測にシームレスに拡張する。
論文 参考訳(メタデータ) (2024-04-07T04:56:58Z) - Adapting to Length Shift: FlexiLength Network for Trajectory Prediction [53.637837706712794]
軌道予測は、自律運転、ロボット工学、シーン理解など、様々な応用において重要な役割を果たしている。
既存のアプローチは主に、一般に標準入力時間を用いて、公開データセットの予測精度を高めるために、コンパクトなニューラルネットワークの開発に重点を置いている。
本稿では,様々な観測期間に対する既存の軌道予測の堅牢性を高めるための,汎用的で効果的なフレームワークFlexiLength Network(FLN)を紹介する。
論文 参考訳(メタデータ) (2024-03-31T17:18:57Z) - GDTS: Goal-Guided Diffusion Model with Tree Sampling for Multi-Modal Pedestrian Trajectory Prediction [15.731398013255179]
マルチモーダル軌道予測のための木サンプリングを用いたゴールガイド拡散モデルを提案する。
2段階のツリーサンプリングアルゴリズムが提案され、一般的な特徴を活用して推論時間を短縮し、マルチモーダル予測の精度を向上させる。
実験により,提案フレームワークは,公開データセットにおけるリアルタイム推論速度と同等の最先端性能を達成できることが実証された。
論文 参考訳(メタデータ) (2023-11-25T03:55:06Z) - Streaming Factor Trajectory Learning for Temporal Tensor Decomposition [33.18423605559094]
時相テンソル分解のためのストリーム係数軌道学習を提案する。
我々はガウス過程(GP)を用いて因子の軌道をモデル化し、その時間的進化を柔軟に推定する。
合成タスクと実世界のアプリケーションの両方において、SFTLの利点を示してきた。
論文 参考訳(メタデータ) (2023-10-25T21:58:52Z) - Streaming Motion Forecasting for Autonomous Driving [71.7468645504988]
ストリーミングデータにおける将来の軌跡を問うベンチマークを導入し,これを「ストリーミング予測」と呼ぶ。
我々のベンチマークは本質的に、スナップショットベースのベンチマークでは見過ごされていない安全上の問題であるエージェントの消失と再出現を捉えている。
我々は,任意のスナップショットベースの予測器をストリーミング予測器に適応させることのできる,"Predictive Streamer"と呼ばれるプラグアンドプレイメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T17:13:16Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。