論文の概要: Prototypical VoteNet for Few-Shot 3D Point Cloud Object Detection
- arxiv url: http://arxiv.org/abs/2210.05593v1
- Date: Tue, 11 Oct 2022 16:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:39:43.751164
- Title: Prototypical VoteNet for Few-Shot 3D Point Cloud Object Detection
- Title(参考訳): Few-Shot 3D Point Cloud Object DetectionのためのプロトタイプVotetNet
- Authors: Shizhen Zhao, Xiaojuan Qi
- Abstract要約: VoteNetは、数発の3Dポイントクラウドオブジェクト検出アプローチである。
PVM(Prototypeal Vote Module)とPHM(Prototypeal Head Module)の2つの新しいモジュールが組み込まれている。
- 参考スコア(独自算出の注目度): 37.48935478836176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing 3D point cloud object detection approaches heavily rely on
large amounts of labeled training data. However, the labeling process is costly
and time-consuming. This paper considers few-shot 3D point cloud object
detection, where only a few annotated samples of novel classes are needed with
abundant samples of base classes. To this end, we propose Prototypical VoteNet
to recognize and localize novel instances, which incorporates two new modules:
Prototypical Vote Module (PVM) and Prototypical Head Module (PHM).
Specifically, as the 3D basic geometric structures can be shared among
categories, PVM is designed to leverage class-agnostic geometric prototypes,
which are learned from base classes, to refine local features of novel
categories.Then PHM is proposed to utilize class prototypes to enhance the
global feature of each object, facilitating subsequent object localization and
classification, which is trained by the episodic training strategy. To evaluate
the model in this new setting, we contribute two new benchmark datasets,
FS-ScanNet and FS-SUNRGBD. We conduct extensive experiments to demonstrate the
effectiveness of Prototypical VoteNet, and our proposed method shows
significant and consistent improvements compared to baselines on two benchmark
datasets.
- Abstract(参考訳): 既存の3dポイントクラウドオブジェクト検出アプローチのほとんどは、大量のラベル付きトレーニングデータに大きく依存している。
しかし、ラベル付けプロセスはコストと時間を要する。
本稿では,基本クラスのサンプルを豊富に含む新規クラスの注釈付きサンプルがわずか数個しか必要とされない,数ショットの3dポイントクラウドオブジェクト検出を考察する。
そこで本研究では,PVM(Prototypeal Vote Module)とPHM(Prototypeal Head Module)の2つの新しいモジュールを組み込んだ,新しいインスタンスの認識とローカライズを行うプロトタイプVotNetを提案する。
具体的には,3次元の基本的な幾何学的構造をカテゴリ間で共有できるため,PVMは,基本クラスから学習したクラス非依存的な幾何学的プロトタイプを活用して,新しいカテゴリの局所的特徴を洗練させるように設計されている。
このモデルを評価するために,FS-ScanNet と FS-SUNRGBD という2つの新しいベンチマークデータセットを提案する。
提案手法は,2つのベンチマークデータセットのベースラインと比較して,有意かつ一貫した改善を示す。
関連論文リスト
- CP-VoteNet: Contrastive Prototypical VoteNet for Few-Shot Point Cloud Object Detection [7.205000222081269]
ポイントクラウド3Dオブジェクト検出(FS3D)は、ポイントクラウドから新しいクラスのオブジェクトを特定しローカライズすることを目的としている。
コントラスト的セマンティクスマイニングを導入し、ネットワークが識別的分類的特徴を抽出できるようにする。
洗練された原始幾何学的構造を通して、基本クラスから新しいクラスへの特徴符号化の伝達性が著しく向上する。
論文 参考訳(メタデータ) (2024-08-30T06:13:49Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Dynamic Clustering Transformer Network for Point Cloud Segmentation [23.149220817575195]
動的クラスタリングトランスネットワーク(DCTNet)と呼ばれる新しい3Dポイントクラウド表現ネットワークを提案する。
エンコーダ-デコーダアーキテクチャがあり、ローカルとグローバルの両方の機能学習が可能である。
提案手法は,オブジェクトベースデータセット(ShapeNet),都市ナビゲーションデータセット(Toronto-3D),マルチスペクトルLiDARデータセットを用いて評価した。
論文 参考訳(メタデータ) (2023-05-30T01:11:05Z) - Weakly Supervised 3D Point Cloud Segmentation via Multi-Prototype
Learning [37.76664203157892]
ここでの根本的な課題は、局所幾何学構造の大きなクラス内変異であり、結果として意味クラス内のサブクラスとなる。
この直感を活用し、各サブクラスの個別分類器を維持することを選択します。
我々の仮説はまた、追加アノテーションのコストを伴わずにセマンティックサブクラスの一貫した発見を前提に検証されている。
論文 参考訳(メタデータ) (2022-05-06T11:07:36Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Learn to Learn Metric Space for Few-Shot Segmentation of 3D Shapes [17.217954254022573]
メタラーニングに基づく3次元形状分割手法を提案する。
本稿では,ShapeNet部データセットにおける提案手法の優れた性能を,既存のベースラインや最先端の半教師手法と比較し,いくつかのシナリオで示す。
論文 参考訳(メタデータ) (2021-07-07T01:47:00Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Fine-Grained 3D Shape Classification with Hierarchical Part-View
Attentions [70.0171362989609]
本稿では,FG3D-Netと呼ばれる新しい3次元形状分類手法を提案する。
詳細な3次元形状データセットに基づく結果から,本手法が他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-26T06:53:19Z) - SSN: Shape Signature Networks for Multi-class Object Detection from
Point Clouds [96.51884187479585]
点雲から形状情報を探索する新しい3次元形状シグネチャを提案する。
対称, 凸船体, チェビシェフフィッティングの操作を取り入れることで, 提案した形状のシグ・ナチュアはコンパクトで有効であるだけでなく, 騒音にも頑健である。
実験により,提案手法は2つの大規模データセット上の既存手法よりも著しく優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-06T16:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。