論文の概要: Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations
- arxiv url: http://arxiv.org/abs/2308.01721v1
- Date: Thu, 3 Aug 2023 12:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:18:09.672822
- Title: Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations
- Title(参考訳): インスタンスレベルのアノテーションのない3次元インスタンスセグメンテーション
- Authors: Shichao Dong, Guosheng Lin
- Abstract要約: 3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
- 参考スコア(独自算出の注目度): 57.615325809883636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D semantic scene understanding tasks have achieved great success with the
emergence of deep learning, but often require a huge amount of manually
annotated training data. To alleviate the annotation cost, we propose the first
weakly-supervised 3D instance segmentation method that only requires
categorical semantic labels as supervision, and we do not need instance-level
labels. The required semantic annotations can be either dense or extreme sparse
(e.g. 0.02% of total points). Even without having any instance-related
ground-truth, we design an approach to break point clouds into raw fragments
and find the most confident samples for learning instance centroids.
Furthermore, we construct a recomposed dataset using pseudo instances, which is
used to learn our defined multilevel shape-aware objectness signal. An
asymmetrical object inference algorithm is followed to process core points and
boundary points with different strategies, and generate high-quality pseudo
instance labels to guide iterative training. Experiments demonstrate that our
method can achieve comparable results with recent fully supervised methods. By
generating pseudo instance labels from categorical semantic labels, our
designed approach can also assist existing methods for learning 3D instance
segmentation at reduced annotation cost.
- Abstract(参考訳): 3dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めていますが、多くの場合、手作業で注釈付きのトレーニングデータを必要とします。
アノテーションコストを緩和するために,分類的意味ラベルのみを監督として必要とし,インスタンスレベルラベルを必要としない,最初の弱教師付き3dインスタンスセグメンテーション手法を提案する。
必要となる意味アノテーションは、密度または極端なスパース(例えば全点の0.02%)でもよい。
インスタンス関連の基盤がなくても、ポイントクラウドを生のフラグメントに分解し、最も自信のあるサンプルを見つけるためのアプローチを設計します。
さらに,マルチレベル形状認識対象性信号の学習にpseudoインスタンスを用いた再構成データセットを構築した。
非対称なオブジェクト推論アルゴリズムは、コアポイントと境界ポイントを異なる戦略で処理し、反復トレーニングを導くために高品質な擬似インスタンスラベルを生成する。
実験により,最近の完全教師あり手法と同等の結果が得られることを確認した。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
関連論文リスト
- Instance Consistency Regularization for Semi-Supervised 3D Instance Segmentation [50.51125319374404]
ラベルのないデータから純粋なインスタンス知識を探索し活用するための,新たな自己学習ネットワークInsTeacher3Dを提案する。
複数の大規模データセットの実験結果から、InsTeacher3Dは最先端の半教師付きアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-24T16:35:58Z) - ClickSeg: 3D Instance Segmentation with Click-Level Weak Annotations [29.231508413247457]
3次元のインスタンスセグメンテーション法は、トレーニングのために完全に注釈付けされた高密度ラベルを必要とすることが多い。
ClickSegは、クリックレベルの弱教師付き3Dインスタンスセグメンテーション手法である。
ClickSegは、完全に教師された相手の精度の90%の$simを達成している。
論文 参考訳(メタデータ) (2023-07-19T02:49:44Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。