論文の概要: RV-FuseNet: Range View Based Fusion of Time-Series LiDAR Data for Joint
3D Object Detection and Motion Forecasting
- arxiv url: http://arxiv.org/abs/2005.10863v3
- Date: Tue, 23 Mar 2021 02:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:55:16.207189
- Title: RV-FuseNet: Range View Based Fusion of Time-Series LiDAR Data for Joint
3D Object Detection and Motion Forecasting
- Title(参考訳): RV-FuseNet: 距離ビューに基づく時系列LiDARデータの融合による3次元物体検出と動き予測
- Authors: Ankit Laddha, Shivam Gautam, Gregory P. Meyer, Carlos
Vallespi-Gonzalez, Carl K. Wellington
- Abstract要約: 本稿では,共同検出と軌道推定のための新しいエンドツーエンドアプローチであるRV-FuseNetを提案する。
広範に使用されている鳥眼ビュー(BEV)表現の代わりに,LiDARデータのネイティブレンジビュー(RV)表現を利用する。
提案手法は,既存の最先端技術よりも動作予測性能を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 13.544498422625448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust real-time detection and motion forecasting of traffic participants is
necessary for autonomous vehicles to safely navigate urban environments. In
this paper, we present RV-FuseNet, a novel end-to-end approach for joint
detection and trajectory estimation directly from time-series LiDAR data.
Instead of the widely used bird's eye view (BEV) representation, we utilize the
native range view (RV) representation of LiDAR data. The RV preserves the full
resolution of the sensor by avoiding the voxelization used in the BEV.
Furthermore, RV can be processed efficiently due to its compactness. Previous
approaches project time-series data to a common viewpoint for temporal fusion,
and often this viewpoint is different from where it was captured. This is
sufficient for BEV methods, but for RV methods, this can lead to loss of
information and data distortion which has an adverse impact on performance. To
address this challenge we propose a simple yet effective novel architecture,
\textit{Incremental Fusion}, that minimizes the information loss by
sequentially projecting each RV sweep into the viewpoint of the next sweep in
time. We show that our approach significantly improves motion forecasting
performance over the existing state-of-the-art. Furthermore, we demonstrate
that our sequential fusion approach is superior to alternative RV based fusion
methods on multiple datasets.
- Abstract(参考訳): 自動運転車が都市環境を安全にナビゲートするには,交通参加者のロバストなリアルタイム検出と移動予測が必要である。
本稿では,時系列LiDARデータから直接共同検出と軌道推定を行う新しいエンドツーエンドアプローチであるRV-FuseNetを提案する。
広範に使用されている鳥眼ビュー(BEV)表現の代わりに,LiDARデータのネイティブレンジビュー(RV)表現を利用する。
RVは、BEVで使用されるボキセル化を回避することにより、センサの全解像度を保存する。
さらに、そのコンパクト性により、RVを効率的に処理することができる。
前者はプロジェクト時系列データを時間融合の共通の視点にアプローチし、多くの場合、この視点は捕獲された場所と異なる。
これはBEV法には十分だが、RV法では、性能に悪影響を及ぼす情報やデータの歪みが失われる可能性がある。
この課題に対処するため,本稿では,各RVを次回のスイープの視点に順次投影することで,情報損失を最小限に抑える,シンプルで効果的な新しいアーキテクチャである‘textit{Incremental Fusion’を提案する。
提案手法は,既存の最先端技術よりも動作予測性能を著しく向上することを示す。
さらに,本手法は,複数のデータセット上でのrvベースの融合手法よりも優れていることを示す。
関連論文リスト
- Streamlining Forest Wildfire Surveillance: AI-Enhanced UAVs Utilizing the FLAME Aerial Video Dataset for Lightweight and Efficient Monitoring [4.303063757163241]
本研究では,災害対応シナリオにおけるリアルタイムデータ処理の必要性を認識し,航空映像理解のための軽量かつ効率的なアプローチを提案する。
提案手法は、ポリシーネットワークを介してビデオ内の冗長部分を識別し、フレーム圧縮技術を用いて余分な情報を除去する。
ベースラインと比較して,提案手法は計算コストを13倍以上削減し,精度を3$%向上させる。
論文 参考訳(メタデータ) (2024-08-31T17:26:53Z) - BEVCar: Camera-Radar Fusion for BEV Map and Object Segmentation [22.870994478494566]
共同BEVオブジェクトとマップセグメンテーションのための新しいアプローチであるBEVCarを紹介する。
我々のアプローチの中核的な特徴は、まず生のレーダーデータのポイントベース符号化を学習することにある。
レーダ情報の導入は, 環境問題におけるロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-03-18T13:14:46Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - MVFuseNet: Improving End-to-End Object Detection and Motion Forecasting
through Multi-View Fusion of LiDAR Data [4.8061970432391785]
We propose itMVFusenet, a novel end-to-end method for joint object detection motion forecasting from a temporal sequence of LiDAR data。
2つの大規模自動運転データセットの検出と動作予測のタスクに対する当社のマルチビューアプローチの利点を示します。
論文 参考訳(メタデータ) (2021-04-21T21:29:08Z) - Multi-View Fusion of Sensor Data for Improved Perception and Prediction
in Autonomous Driving [11.312620949473938]
本稿では,LiDARとカメラ画像の多視点表現を用いた物体検出と軌跡予測のエンドツーエンド手法を提案する。
我々のモデルは最先端のBird's-Eye View(BEV)ネットワーク上に構築され、歴史的なLiDARデータからボキセル化された特徴を融合する。
我々は、このモデルを、ネイティブな非量子化表現で生のLiDAR情報を使用する追加のLiDAR Range-View (RV)機能で拡張する。
論文 参考訳(メタデータ) (2020-08-27T03:32:25Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。