論文の概要: Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation
- arxiv url: http://arxiv.org/abs/2103.12964v1
- Date: Wed, 24 Mar 2021 03:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 14:03:39.500846
- Title: Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation
- Title(参考訳): 体積伝播ネットワーク:長距離深度推定のためのステレオライダー融合
- Authors: Jaesung Choe, Kyungdon Joo, Tooba Imtiaz, In So Kweon
- Abstract要約: 長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 81.08111209632501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo-LiDAR fusion is a promising task in that we can utilize two different
types of 3D perceptions for practical usage -- dense 3D information (stereo
cameras) and highly-accurate sparse point clouds (LiDAR). However, due to their
different modalities and structures, the method of aligning sensor data is the
key for successful sensor fusion. To this end, we propose a geometry-aware
stereo-LiDAR fusion network for long-range depth estimation, called volumetric
propagation network. The key idea of our network is to exploit sparse and
accurate point clouds as a cue for guiding correspondences of stereo images in
a unified 3D volume space. Unlike existing fusion strategies, we directly embed
point clouds into the volume, which enables us to propagate valid information
into nearby voxels in the volume, and to reduce the uncertainty of
correspondences. Thus, it allows us to fuse two different input modalities
seamlessly and regress a long-range depth map. Our fusion is further enhanced
by a newly proposed feature extraction layer for point clouds guided by images:
FusionConv. FusionConv extracts point cloud features that consider both
semantic (2D image domain) and geometric (3D domain) relations and aid fusion
at the volume. Our network achieves state-of-the-art performance on the KITTI
and the Virtual-KITTI datasets among recent stereo-LiDAR fusion methods.
- Abstract(参考訳): Stereo-LiDAR融合は,高密度3D情報(ステレオカメラ)と高精度スパース点雲(LiDAR)という,2種類の3D知覚を実用的に活用できるという,有望な課題である。
しかし,その形態や構造の違いから,センサデータの整合がセンサ融合の鍵となる。
そこで本研究では,体積伝搬ネットワークと呼ばれる長距離深度推定のための幾何対応ステレオLiDAR融合ネットワークを提案する。
ネットワークの重要な考え方は,3次元ボリューム空間におけるステレオ画像の対応を導出するための手掛かりとして,スパースかつ正確な点雲を活用することである。
既存の融合戦略とは異なり、我々は点雲を直接ボリュームに埋め込むことで、有効情報をボリューム内の近傍のボクセルに伝播させ、対応の不確かさを低減することができる。
これにより、2つの異なる入力モードをシームレスに融合し、長距離深度マップを回帰することができる。
また,新たに提案する特徴抽出層により,画像案内による点雲の融合をさらに強化した。
fusionconvは、意味的(2d画像領域)と幾何学的(3d領域)の関係を考えるポイントクラウドの特徴を抽出し、ボリュームでの融合を支援する。
我々のネットワークは,最近のステレオLiDAR融合法において,KITTIとVirtual-KITTIデータセットの最先端性能を実現する。
関連論文リスト
- FFPA-Net: Efficient Feature Fusion with Projection Awareness for 3D
Object Detection [19.419030878019974]
構造化されていない3D点雲は2D平面に充填され、3D点雲はプロジェクション対応の畳み込み層を用いて高速に抽出される。
データ前処理において、異なるセンサ信号間の対応するインデックスを予め設定する。
2つの新しいプラグアンドプレイ融合モジュールLiCamFuseとBiLiCamFuseが提案されている。
論文 参考訳(メタデータ) (2022-09-15T16:13:19Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Frustum Fusion: Pseudo-LiDAR and LiDAR Fusion for 3D Detection [0.0]
本稿では,立体対から得られる高精度な点雲と,密度が高いが精度の低い点雲を結合する新しいデータ融合アルゴリズムを提案する。
我々は複数の3次元物体検出法を訓練し、核融合戦略が検出器の性能を継続的に改善することを示す。
論文 参考訳(メタデータ) (2021-11-08T19:29:59Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - RoutedFusion: Learning Real-time Depth Map Fusion [73.0378509030908]
深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
論文 参考訳(メタデータ) (2020-01-13T16:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。