論文の概要: MS23D: A 3D Object Detection Method Using Multi-Scale Semantic Feature
Points to Construct 3D Feature Layer
- arxiv url: http://arxiv.org/abs/2308.16518v4
- Date: Sat, 14 Oct 2023 03:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 03:37:54.495616
- Title: MS23D: A 3D Object Detection Method Using Multi-Scale Semantic Feature
Points to Construct 3D Feature Layer
- Title(参考訳): MS23D:マルチスケール意味的特徴点を用いた3次元物体検出手法
- Authors: Yongxin Shao, Aihong Tan, Tianhong Yan, Zhetao Sun, Yiyang Zhang and
Jiaxin Liu
- Abstract要約: 本稿では,MS$2$3Dという2段階の3D検出フレームワークを提案する。
MS$2$3Dで、マルチスケールな意味的特徴点を用いた3D特徴層を構築するための新しいアプローチが導入された。
また,3次元特徴層における特徴点と物体の遠心点とのオフセットを予測し,特徴点を物体の中心に近い位置に置くことを目的とした。
- 参考スコア(独自算出の注目度): 5.167971706742407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lidar point clouds, as a type of data with accurate distance perception, can
effectively represent the motion and posture of objects in three-dimensional
space. However, the sparsity and disorderliness of point clouds make it
challenging to extract features directly from them. Many studies have addressed
this issue by transforming point clouds into regular voxel representations.
However, the sparsity of point clouds poses challenges in effectively
aggregating features within a 3D feature layer using voxel-based two-stage
methods. To mitigate these issues, we propose a two-stage 3D detection
framework named MS$^{2}$3D in this paper. Within MS$^{2}$3D, a novel approach
is introduced to construct a 3D feature layer using multi-scale semantic
feature points, effectively converting the sparse 3D feature layer into a more
compact representation. Additionally, we predict the offset between the feature
points in the 3D feature layer and the object's centroid, aiming to position
the feature points as close to the object's center as possible. This method
significantly enhances the efficiency of feature aggregation. Voxel-based
methods often result in the loss of fine-grained local feature information
during downsampling. By leveraging voxel encoding at different scales, we
acquire feature information with varying receptive fields, mitigating the
deficiency of fine-grained feature information to some extent. To validate the
effectiveness of our approach, we conducted evaluations on both the KITTI
dataset and the ONCE dataset.
- Abstract(参考訳): ライダー点雲は、正確な距離知覚を持つデータの一種であり、3次元空間における物体の動きと姿勢を効果的に表すことができる。
しかし、点雲の広がりや乱れは、それらから直接特徴を引き出すのを困難にしている。
多くの研究が点雲を正則なボクセル表現に変換することでこの問題に対処している。
しかし、点雲の空間性は、ボクセルベースの2段階法による3D特徴層内の機能を効果的に集約する上での課題を生じさせる。
この問題を軽減するため,本稿ではms$^{2}$3dという2段階の3d検出フレームワークを提案する。
ms$^{2}$3d内では、マルチスケールなセマンティック特徴点を用いて3d特徴層を構築する新しいアプローチが導入され、スパース3d特徴層をよりコンパクトな表現に効果的に変換する。
さらに,3次元特徴層における特徴点と物体の遠心点とのオフセットを予測し,その特徴点を物体の中心に近い位置に置くことを目的とする。
この手法は特徴集約の効率を大幅に向上させる。
voxelベースの手法では、ダウンサンプリング中に粒度の細かい局所的な特徴情報が失われることが多い。
異なるスケールでvoxel符号化を利用することで、様々な受容野を持つ特徴情報を取得し、細粒度特徴情報の不足をある程度緩和する。
提案手法の有効性を検証するため,KITTIデータセットとONCEデータセットの両方を用いて評価を行った。
関連論文リスト
- Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - PSA-Det3D: Pillar Set Abstraction for 3D object Detection [14.788139868324155]
我々は,小物体の検出性能を向上させるために,柱集合抽象化(PSA)と前景点補償(FPC)を提案する。
KITTI 3D 検出ベンチマーク実験の結果,提案した PSA-Det3D は他のアルゴリズムよりも高い精度で小物体検出を行うことができた。
論文 参考訳(メタデータ) (2022-10-20T03:05:34Z) - Boosting 3D Object Detection via Object-Focused Image Fusion [33.616129400275156]
本稿では,画像情報をポイント特徴に融合するDeMFを提案する。
本稿では,SUN RGB-Dデータセットの課題について検討する。
論文 参考訳(メタデータ) (2022-07-21T16:32:05Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - SSN: Shape Signature Networks for Multi-class Object Detection from
Point Clouds [96.51884187479585]
点雲から形状情報を探索する新しい3次元形状シグネチャを提案する。
対称, 凸船体, チェビシェフフィッティングの操作を取り入れることで, 提案した形状のシグ・ナチュアはコンパクトで有効であるだけでなく, 騒音にも頑健である。
実験により,提案手法は2つの大規模データセット上の既存手法よりも著しく優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-06T16:01:41Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - Object as Hotspots: An Anchor-Free 3D Object Detection Approach via
Firing of Hotspots [37.16690737208046]
オブジェクトレベルのアンカーを用いた既存のメソッドとは逆のアプローチを論じる。
構成モデルに着想を得て、内部の空でないボクセルの組成として、ホットスポットと呼ばれる物体を提案する。
提案手法は,OHSに基づく新しい地中真理割当て戦略を用いたアンカーフリー検出ヘッドを提案する。
論文 参考訳(メタデータ) (2019-12-30T03:02:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。