論文の概要: R-AGNO-RPN: A LIDAR-Camera Region Deep Network for Resolution-Agnostic
Detection
- arxiv url: http://arxiv.org/abs/2012.05740v1
- Date: Thu, 10 Dec 2020 15:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:33:16.433776
- Title: R-AGNO-RPN: A LIDAR-Camera Region Deep Network for Resolution-Agnostic
Detection
- Title(参考訳): R-AGNO-RPN:分解能非依存検出のためのLIDARカメラ領域ディープネットワーク
- Authors: Ruddy Th\'eodose, Dieumet Denis, Thierry Chateau, Vincent Fr\'emont,
Paul Checchin
- Abstract要約: 3次元点雲とRGB画像を融合した領域提案ネットワークR-AGNO-RPNを提案する。
私たちのアプローチは、低点のクラウド解像度にも適用できるように設計されています。
- 参考スコア(独自算出の注目度): 3.4761212729163313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current neural networks-based object detection approaches processing LiDAR
point clouds are generally trained from one kind of LiDAR sensors. However,
their performances decrease when they are tested with data coming from a
different LiDAR sensor than the one used for training, i.e., with a different
point cloud resolution. In this paper, R-AGNO-RPN, a region proposal network
built on fusion of 3D point clouds and RGB images is proposed for 3D object
detection regardless of point cloud resolution. As our approach is designed to
be also applied on low point cloud resolutions, the proposed method focuses on
object localization instead of estimating refined boxes on reduced data. The
resilience to low-resolution point cloud is obtained through image features
accurately mapped to Bird's Eye View and a specific data augmentation procedure
that improves the contribution of the RGB images. To show the proposed
network's ability to deal with different point clouds resolutions, experiments
are conducted on both data coming from the KITTI 3D Object Detection and the
nuScenes datasets. In addition, to assess its performances, our method is
compared to PointPillars, a well-known 3D detection network. Experimental
results show that even on point cloud data reduced by $80\%$ of its original
points, our method is still able to deliver relevant proposals localization.
- Abstract(参考訳): 現在のニューラルネットワークベースのオブジェクト検出アプローチは、LiDARポイントクラウドを処理し、通常、ある種類のLiDARセンサーからトレーニングされる。
しかし、その性能は、異なるLiDARセンサーから来るデータ、すなわち異なる点のクラウド解像度で使用されるデータでテストされると低下する。
本稿では,3次元点雲とRGB画像の融合に基づく領域提案ネットワークであるR-AGNO-RPNを提案する。
提案手法は,低点のクラウド解像度にも適用可能なように設計されているため,削減されたデータ上で精製されたボックスを推定するのではなく,オブジェクトのローカライズに焦点をあてる。
低解像度ポイントクラウドへのレジリエンスは、鳥の目視に正確にマッピングされた画像特徴と、rgb画像の寄与を改善する特定のデータ拡張手順によって得られる。
提案手法を用いて,kitti 3dオブジェクト検出とnuscenesデータセットから得られたデータについて実験を行った。
さらに,その性能を評価するために,よく知られた3D検出ネットワークであるPointPillarsと比較した。
実験結果から, 原点の80 % の値に削減された点群においても, 提案手法のローカライゼーションが可能であることがわかった。
関連論文リスト
- Sparse-to-Dense LiDAR Point Generation by LiDAR-Camera Fusion for 3D Object Detection [9.076003184833557]
2D画像特徴を融合させてLiDARポイントクラウドデータを再構成する新しいフレームワークであるLiDAR-Camera Augmentation Network (LCANet)を提案する。
LCANetは、画像特徴を3D空間に投影し、意味情報をポイントクラウドデータに統合することで、LiDARセンサーからのデータを融合する。
この融合は、しばしばスパースポイントで表される長距離物体の検出におけるLiDARの弱点を効果的に補う。
論文 参考訳(メタデータ) (2024-09-23T13:03:31Z) - Uplifting Range-View-based 3D Semantic Segmentation in Real-Time with Multi-Sensor Fusion [18.431017678057348]
Range-View(RV)ベースの3Dポイントクラウドセグメンテーションは、そのコンパクトなデータ形式のために広く採用されている。
しかし、RVベースの手法は、隠蔽された点に対して堅牢なセグメンテーションを提供するには不十分である。
我々は新しいLiDARとカメラレンジビューに基づく3Dポイントクラウドセマンティックセマンティックセマンティック手法(LaCRange)を提案する。
提案手法は,リアルタイム性に加えて,nuScenesベンチマークの最先端結果も実現している。
論文 参考訳(メタデータ) (2024-07-12T21:41:57Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Open-Vocabulary 3D Detection via Image-level Class and Debiased
Cross-modal Contrastive Learning [62.18197846270103]
現在の点雲検出法では,実世界の開語彙を検出するのが困難である。
画像レベルのクラス管理を用いたオープン語彙3DDETectorであるOV-3DETICを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:13:52Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z) - 3D Object Detection From LiDAR Data Using Distance Dependent Feature
Extraction [7.04185696830272]
本研究は、LiDAR点雲の性質を遠距離で考慮し、3次元物体検出器の改良を提案する。
その結果、近距離および長距離オブジェクトのための個別ネットワークのトレーニングは、すべてのKITTIベンチマークの困難さに対するパフォーマンスを高めることが示された。
論文 参考訳(メタデータ) (2020-03-02T13:16:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。