論文の概要: One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2104.02246v2
- Date: Wed, 7 Apr 2021 05:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:08:28.353996
- Title: One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation
- Title(参考訳): ワンクリック:弱い教師付き3dセマンティクスセグメンテーションのための自己学習アプローチ
- Authors: Zhengzhe Liu, Xiaojuan Qi, Chi-Wing Fu
- Abstract要約: 私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
- 参考スコア(独自算出の注目度): 78.36781565047656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud semantic segmentation often requires largescale annotated
training data, but clearly, point-wise labels are too tedious to prepare. While
some recent methods propose to train a 3D network with small percentages of
point labels, we take the approach to an extreme and propose "One Thing One
Click," meaning that the annotator only needs to label one point per object. To
leverage these extremely sparse labels in network training, we design a novel
self-training approach, in which we iteratively conduct the training and label
propagation, facilitated by a graph propagation module. Also, we adopt a
relation network to generate per-category prototype and explicitly model the
similarity among graph nodes to generate pseudo labels to guide the iterative
training. Experimental results on both ScanNet-v2 and S3DIS show that our
self-training approach, with extremely-sparse annotations, outperforms all
existing weakly supervised methods for 3D semantic segmentation by a large
margin, and our results are also comparable to those of the fully supervised
counterparts.
- Abstract(参考訳): ポイントクラウドのセマンティクスセグメンテーションは、しばしば大規模な注釈付きトレーニングデータを必要とするが、明らかにポイント単位でのラベルは準備が難しい。
最近の手法では、小さなポイントラベルで3Dネットワークをトレーニングする手法が提案されているが、極端にアプローチして"One Thing One Click"を提案する。
ネットワークトレーニングにおいて,これらの極端にスパースなラベルを活用するために,グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う,新たな自己学習アプローチを設計する。
また,カテゴリ毎のプロトタイプを生成し,グラフノード間の類似性を明示的にモデル化して擬似ラベルを生成し,反復学習を指導する関係ネットワークを採用する。
scannet-v2 と s3dis の両方における実験の結果は、非常に疎結合なアノテーションを持つ我々の自己学習アプローチが、3d意味セグメンテーションのための既存の弱い教師付きメソッドを大きなマージンで上回っていることを示している。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - Instance Consistency Regularization for Semi-Supervised 3D Instance Segmentation [50.51125319374404]
ラベルのないデータから純粋なインスタンス知識を探索し活用するための,新たな自己学習ネットワークInsTeacher3Dを提案する。
複数の大規模データセットの実験結果から、InsTeacher3Dは最先端の半教師付きアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-24T16:35:58Z) - Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - ClickSeg: 3D Instance Segmentation with Click-Level Weak Annotations [29.231508413247457]
3次元のインスタンスセグメンテーション法は、トレーニングのために完全に注釈付けされた高密度ラベルを必要とすることが多い。
ClickSegは、クリックレベルの弱教師付き3Dインスタンスセグメンテーション手法である。
ClickSegは、完全に教師された相手の精度の90%の$simを達成している。
論文 参考訳(メタデータ) (2023-07-19T02:49:44Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。