論文の概要: Compositional Prototype Network with Multi-view Comparision for Few-Shot
Point Cloud Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2012.14255v1
- Date: Mon, 28 Dec 2020 15:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 11:01:40.480170
- Title: Compositional Prototype Network with Multi-view Comparision for Few-Shot
Point Cloud Semantic Segmentation
- Title(参考訳): Few-Shot Point Cloud Semantic Segmentationのためのマルチビュー比較による合成プロトタイプネットワーク
- Authors: Xiaoyu Chen, Chi Zhang, Guosheng Lin, Jing Han
- Abstract要約: 完全に教師ありのポイントクラウドセグメンテーションネットワークは、しばしばポイントワイズアノテーションを持つ大量のデータを必要とする。
少数のラベル付きトレーニングデータだけでポイントクラウドのセグメンテーションを行うことができるコンポジションプロトタイプネットワークを紹介します。
画像中の少数の学習文献にインスパイアされたネットワークは、限られたトレーニングデータから予測のためのラベルのないテストデータに直接ラベル情報を転送します。
- 参考スコア(独自算出の注目度): 47.0611707526858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud segmentation is a fundamental visual understanding task in 3D
vision. A fully supervised point cloud segmentation network often requires a
large amount of data with point-wise annotations, which is expensive to obtain.
In this work, we present the Compositional Prototype Network that can undertake
point cloud segmentation with only a few labeled training data. Inspired by the
few-shot learning literature in images, our network directly transfers label
information from the limited training data to unlabeled test data for
prediction. The network decomposes the representations of complex point cloud
data into a set of local regional representations and utilizes them to
calculate the compositional prototypes of a visual concept. Our network
includes a key Multi-View Comparison Component that exploits the redundant
views of the support set. To evaluate the proposed method, we create a new
segmentation benchmark dataset, ScanNet-$6^i$, which is built upon ScanNet
dataset. Extensive experiments show that our method outperforms baselines with
a significant advantage. Moreover, when we use our network to handle the
long-tail problem in a fully supervised point cloud segmentation dataset, it
can also effectively boost the performance of the few-shot classes.
- Abstract(参考訳): ポイントクラウドセグメンテーションは、3dビジョンにおける基本的なビジュアル理解タスクである。
完全に教師ありのポイントクラウドセグメンテーションネットワークは、多くの場合、ポイントワイズアノテーションを持つ大量のデータを必要とする。
本研究では,少数のラベル付きトレーニングデータのみを用いて,ポイントクラウドセグメンテーションを実施可能なコンポジションプロトタイプネットワークを提案する。
画像中の少数の学習文献にインスパイアされた我々のネットワークは、限られたトレーニングデータからラベル付きテストデータに直接ラベル情報を転送して予測する。
このネットワークは、複雑なポイントクラウドデータの表現を局所的な表現の集合に分解し、それらを用いて視覚概念の合成プロトタイプを計算する。
私たちのネットワークには、サポートセットの冗長なビューを利用する重要なマルチビュー比較コンポーネントが含まれています。
提案手法を評価するため,新しいセグメンテーションベンチマークデータセットであるScanNet-$6^i$を作成し,ScanNetデータセット上に構築する。
大規模な実験により,本手法はベースラインよりも優れた性能を示した。
さらに、完全な教師付きポイントクラウドセグメンテーションデータセットにおけるロングテール問題に対処するためにネットワークを使用する場合、少数クラスのパフォーマンスを効果的に向上させることができます。
関連論文リスト
- Collect-and-Distribute Transformer for 3D Point Cloud Analysis [82.03517861433849]
本稿では,点雲の短距離・長距離コンテキストを通信するための収集・分散機構を備えた新しい変圧器ネットワークを提案する。
その結果,提案したCDFormerの有効性が示され,ポイントクラウドの分類とセグメンテーションタスクにおける最先端のパフォーマンスがいくつか提供された。
論文 参考訳(メタデータ) (2023-06-02T03:48:45Z) - Few-Shot 3D Point Cloud Semantic Segmentation via Stratified
Class-Specific Attention Based Transformer Network [22.9434434107516]
数ショットのクラウドセマンティックセマンティックセグメンテーションのための新しい多層トランスフォーマーネットワークを開発した。
提案手法は,既存の数ショットの3Dポイントクラウドセグメンテーションモデルよりも15%少ない推論時間で,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-28T00:27:54Z) - Point-Unet: A Context-aware Point-based Neural Network for Volumetric
Segmentation [18.81644604997336]
本稿では,3次元点雲による深層学習の効率をボリュームセグメンテーションに組み込む新しい手法であるPoint-Unetを提案する。
私たちのキーとなるアイデアは、まず注意確率マップを学習することで、ボリュームに対する関心領域を予測することです。
異なるメトリクスに関する包括的なベンチマークでは、私たちのコンテキスト認識のPoint-UnetがSOTAのボクセルベースネットワークより優れていることが示されている。
論文 参考訳(メタデータ) (2022-03-16T22:02:08Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - PnP-3D: A Plug-and-Play for 3D Point Clouds [38.05362492645094]
本稿では,既存ネットワークのポイントクラウドデータ解析における有効性を改善するために,プラグイン・アンド・プレイモジュール -3D を提案する。
アプローチを徹底的に評価するために,3つの標準的なクラウド分析タスクについて実験を行った。
本研究は,最先端の成果の達成に加えて,我々のアプローチのメリットを実証する包括的研究を提案する。
論文 参考訳(メタデータ) (2021-08-16T23:59:43Z) - Learning point embedding for 3D data processing [2.12121796606941]
現在の点ベース法は本質的に空間関係処理ネットワークである。
PE-Netは高次元空間における点雲の表現を学習する。
実験によると、PE-Netは複数の挑戦的なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-19T00:25:28Z) - Few-shot 3D Point Cloud Semantic Segmentation [138.80825169240302]
本稿では,新しい注意型マルチプロトタイプトランスダクティブ・ショットポイント・クラウドセマンティックセマンティック・セマンティクス法を提案する。
提案手法は,雲のセマンティックセマンティックセグメンテーション設定の違いによるベースラインに比べて,顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2020-06-22T08:05:25Z) - Multi-Path Region Mining For Weakly Supervised 3D Semantic Segmentation
on Point Clouds [67.0904905172941]
本稿では,3次元点雲上の弱ラベルを用いた点レベルの予測のための弱教師付きアプローチを提案する。
私たちの知る限りでは、これは、クラウドレベルの弱いラベルを生の3D空間で使用して、ポイントクラウドセマンティックセグメンテーションネットワークをトレーニングする最初の方法です。
論文 参考訳(メタデータ) (2020-03-29T14:13:29Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。