論文の概要: Boosting 3D Object Detection via Object-Focused Image Fusion
- arxiv url: http://arxiv.org/abs/2207.10589v1
- Date: Thu, 21 Jul 2022 16:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:19:51.241996
- Title: Boosting 3D Object Detection via Object-Focused Image Fusion
- Title(参考訳): 物体融合による3次元物体検出の促進
- Authors: Hao Yang, Chen Shi, Yihong Chen, Liwei Wang
- Abstract要約: 本稿では,画像情報をポイント特徴に融合するDeMFを提案する。
本稿では,SUN RGB-Dデータセットの課題について検討する。
- 参考スコア(独自算出の注目度): 33.616129400275156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection has achieved remarkable progress by taking point clouds
as the only input. However, point clouds often suffer from incomplete geometric
structures and the lack of semantic information, which makes detectors hard to
accurately classify detected objects. In this work, we focus on how to
effectively utilize object-level information from images to boost the
performance of point-based 3D detector. We present DeMF, a simple yet effective
method to fuse image information into point features. Given a set of point
features and image feature maps, DeMF adaptively aggregates image features by
taking the projected 2D location of the 3D point as reference. We evaluate our
method on the challenging SUN RGB-D dataset, improving state-of-the-art results
by a large margin (+2.1 mAP@0.25 and +2.3mAP@0.5). Code is available at
https://github.com/haoy945/DeMF.
- Abstract(参考訳): 3dオブジェクト検出は、ポイントクラウドを唯一の入力として、驚くべき進歩を遂げた。
しかし、点雲は不完全な幾何学構造と意味情報の欠如に悩まされ、検出対象の正確な分類が困難になる。
本研究では,画像からのオブジェクトレベルの情報を効果的に活用し,ポイントベース3D検出器の性能を高める方法について検討する。
本稿では,画像情報をポイント特徴に融合する,シンプルで効果的なDeMFを提案する。
点特徴と画像特徴マップのセットが与えられたとき、3Dポイントの投影された2D位置を基準として、DeMFは画像特徴を適応的に集約する。
本手法は,SUN RGB-Dデータセットにおいて,高いマージン(+2.1 mAP@0.25および+2.3 mAP@0.5)で最先端の成果を向上する。
コードはhttps://github.com/haoy945/DeMFで入手できる。
関連論文リスト
- MS23D: : A 3D Object Detection Method Using Multi-Scale Semantic Feature Points to Construct 3D Feature Layer [4.644319899528183]
LiDAR点雲は、三次元空間における物体の動きと姿勢を効果的に描写することができる。
自律運転のシナリオでは、点雲の空間性と空洞性は、ボクセルベースの方法にいくつかの困難をもたらす。
我々はMS23Dと呼ばれる2段階の3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-31T08:03:25Z) - Multi-Sem Fusion: Multimodal Semantic Fusion for 3D Object Detection [11.575945934519442]
LiDARとカメラ融合技術は、自律運転において3次元物体検出を実現することを約束している。
多くのマルチモーダルな3Dオブジェクト検出フレームワークは、2D画像からのセマンティック知識を3D LiDARポイントクラウドに統合する。
本稿では2次元画像と3次元ポイントシーン解析結果の両方から意味情報を融合する汎用多モード融合フレームワークであるMulti-Sem Fusion(MSF)を提案する。
論文 参考訳(メタデータ) (2022-12-10T10:54:41Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - 3D Object Detection Method Based on YOLO and K-Means for Image and Point
Clouds [1.9458156037869139]
ライダーに基づく3Dオブジェクト検出と分類タスクは、自動運転に不可欠である。
本稿では,点雲と画像に基づく3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T04:32:36Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。