論文の概要: DisARM: Displacement Aware Relation Module for 3D Detection
- arxiv url: http://arxiv.org/abs/2203.01152v1
- Date: Wed, 2 Mar 2022 14:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 16:10:25.924246
- Title: DisARM: Displacement Aware Relation Module for 3D Detection
- Title(参考訳): DisARM: 3D検出のための変位認識リレーションモジュール
- Authors: Yao Duan, Chenyang Zhu, Yuqing Lan, Renjiao Yi, Xinwang Liu, Kai Xu
- Abstract要約: Displacement Aware Relation Module (DisARM)は、ポイントクラウドシーンにおける3Dオブジェクト検出の性能を向上させるニューラルネットワークモジュールである。
アンカーを見つけるために,まず,対象性を考慮したサンプリング手法を用いて予備的な関係アンカーモジュールを実行する。
この軽量なリレーショナルモジュールは、最先端検出器に差し込む際にオブジェクトインスタンス検出の精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 38.4380420322491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Displacement Aware Relation Module (DisARM), a novel neural
network module for enhancing the performance of 3D object detection in point
cloud scenes. The core idea of our method is that contextual information is
critical to tell the difference when the instance geometry is incomplete or
featureless. We find that relations between proposals provide a good
representation to describe the context. However, adopting relations between all
the object or patch proposals for detection is inefficient, and an imbalanced
combination of local and global relations brings extra noise that could mislead
the training. Rather than working with all relations, we found that training
with relations only between the most representative ones, or anchors, can
significantly boost the detection performance. A good anchor should be
semantic-aware with no ambiguity and independent with other anchors as well. To
find the anchors, we first perform a preliminary relation anchor module with an
objectness-aware sampling approach and then devise a displacement-based module
for weighing the relation importance for better utilization of contextual
information. This lightweight relation module leads to significantly higher
accuracy of object instance detection when being plugged into the
state-of-the-art detectors. Evaluations on the public benchmarks of real-world
scenes show that our method achieves state-of-the-art performance on both SUN
RGB-D and ScanNet V2.
- Abstract(参考訳): 本稿では,ポイントクラウドシーンにおける3Dオブジェクト検出性能を向上させるニューラルネットワークモジュールであるDisplacement Aware Relation Module (DisARM)を紹介する。
この手法の核となる考え方は、インスタンスの幾何が不完全あるいは機能的でない場合の差異を判断するために、コンテキスト情報が非常に重要であるということです。
提案間の関係がコンテキストを記述する上でよい表現であることがわかった。
しかし、検出のための全てのオブジェクトまたはパッチの提案間の関係は非効率であり、局所的およびグローバル的関係の不均衡な組み合わせは、トレーニングを誤解させる余分なノイズをもたらす。
すべての関係を扱うのではなく、最も代表的なもの、あるいはアンカー間の関係によるトレーニングが検出性能を大幅に向上させることがわかった。
優れたアンカーは、曖昧さがなく、他のアンカーとも独立な意味認識であるべきです。
アンカーを見つけるために,まず,オブジェクトネスアウェアサンプリングアプローチによる予備関係アンカーモジュールを作成し,その後,コンテキスト情報の利用性向上のために関係重要度を重み付ける変位ベースモジュールを考案する。
この軽量な関係モジュールは、最先端検出器に差し込む際にオブジェクトインスタンス検出の精度を著しく向上させる。
SUN RGB-D と ScanNet V2 の両面において,本手法が最先端の性能を達成することを示す。
関連論文リスト
- Scene-Graph ViT: End-to-End Open-Vocabulary Visual Relationship Detection [14.22646492640906]
オープン語彙の視覚的関係検出のための単純かつ高効率なデコーダレスアーキテクチャを提案する。
我々のモデルはTransformerベースの画像エンコーダで、オブジェクトをトークンとして表現し、それらの関係を暗黙的にモデル化する。
提案手法は,ビジュアルゲノムおよび大語彙GQAベンチマーク上で,リアルタイムな推論速度で,最先端の関係検出性能を実現する。
論文 参考訳(メタデータ) (2024-03-21T10:15:57Z) - 3DRP-Net: 3D Relative Position-aware Network for 3D Visual Grounding [58.924180772480504]
3Dビジュアルグラウンドは、自由形式の言語記述によって、ターゲットオブジェクトを3Dポイントクラウドにローカライズすることを目的としている。
3次元相対位置認識ネットワーク(3-Net)という,関係性を考慮した一段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T09:33:25Z) - FECANet: Boosting Few-Shot Semantic Segmentation with Feature-Enhanced
Context-Aware Network [48.912196729711624]
Few-shot セマンティックセグメンテーション(Few-shot semantic segmentation)は、新しいクラスの各ピクセルを、わずかに注釈付きサポートイメージで検索するタスクである。
本稿では,クラス間の類似性に起因するマッチングノイズを抑制するために,機能拡張コンテキスト認識ネットワーク(FECANet)を提案する。
さらに,前景と背景の余分な対応関係を符号化する新たな相関再構成モジュールを提案する。
論文 参考訳(メタデータ) (2023-01-19T16:31:13Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - ARM3D: Attention-based relation module for indoor 3D object detection [18.58659759308696]
我々は新しい3Dアテンションベース関係モジュール(ARM3D)を提案する。
それは、適格な提案の中からペアワイズ関係のコンテキストを抽出するために、オブジェクト・アウェア関係の推論を含む。
ARM3Dは有用な関係コンテキストを最大限に活用し、関連性の低いコンテキストや混乱したコンテキストをフィルタリングする。
論文 参考訳(メタデータ) (2022-02-20T02:43:42Z) - A More Compact Object Detector Head Network with Feature Enhancement and
Relational Reasoning [4.171249457570931]
よりコンパクトなオブジェクト検出器ヘッドネットワーク(CODH)を提案する。
提案手法では,ヘッドネットワークのパラメータは最先端のカスケードR-CNNより0.6倍小さいが,COCOテストデブでは1.3%向上する。
論文 参考訳(メタデータ) (2021-06-28T08:38:57Z) - Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection [18.04185751827619]
新規なオブジェクトのきめ細かい特徴を、ほんのわずかなデータで簡単に見落としてしまうため、オブジェクト検出は困難である。
本稿では,少数の検出問題に対処するために,DCNet (Context-aware Aggregation) を用いたDense Relation Distillationを提案する。
論文 参考訳(メタデータ) (2021-03-30T05:34:49Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。