論文の概要: You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding
- arxiv url: http://arxiv.org/abs/2303.14727v2
- Date: Sat, 9 Sep 2023 23:11:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 17:18:43.231366
- Title: You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding
- Title(参考訳): ワンクリックで3dシーン理解の弱さを学習できるセルフトレーニング(動画あり)
- Authors: Zhengzhe Liu, Xiaojuan Qi, Chi-Wing Fu
- Abstract要約: 私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
- 参考スコア(独自算出の注目度): 107.06117227661204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D scene understanding, e.g., point cloud semantic and instance segmentation,
often requires large-scale annotated training data, but clearly, point-wise
labels are too tedious to prepare. While some recent methods propose to train a
3D network with small percentages of point labels, we take the approach to an
extreme and propose ``One Thing One Click,'' meaning that the annotator only
needs to label one point per object. To leverage these extremely sparse labels
in network training, we design a novel self-training approach, in which we
iteratively conduct the training and label propagation, facilitated by a graph
propagation module. Also, we adopt a relation network to generate the
per-category prototype to enhance the pseudo label quality and guide the
iterative training. Besides, our model can be compatible to 3D instance
segmentation equipped with a point-clustering strategy. Experimental results on
both ScanNet-v2 and S3DIS show that our self-training approach, with
extremely-sparse annotations, outperforms all existing weakly supervised
methods for 3D semantic and instance segmentation by a large margin, and our
results are also comparable to those of the fully supervised counterparts.
Codes and models are available at
https://github.com/liuzhengzhe/One-Thing-One-Click.
- Abstract(参考訳): ポイントクラウドセマンティクスやインスタンスセグメンテーションといった3dシーンの理解には、多くの場合、大規模な注釈付きトレーニングデータが必要であるが、ポイントワイズラベルを準備するには面倒すぎることは明らかである。
近年,ポイントラベルの少ない3dネットワークを訓練する手法が提案されているが,そのアプローチを極端に取り入れて,アノテータがオブジェクト毎に1つのポイントをラベル付けるだけでよい‘one thing one click,’を提案する。
ネットワークトレーニングにおいて,これらの極端にスパースなラベルを活用するために,グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う,新たな自己学習アプローチを設計する。
また,カテゴリごとのプロトタイプを生成するために関係ネットワークを採用し,擬似ラベル品質を高め,反復学習を指導する。
さらに,本モデルは,ポイントクラスタリング戦略を備えた3次元インスタンスセグメンテーションと互換性がある。
scannet-v2 と s3dis の両方の実験結果は、非常に疎結合なアノテーションを持つ我々の自己学習アプローチが、既存の3dセマンティクスとインスタンスセグメンテーションのための弱い教師付きメソッドを大きなマージンで上回っていることを示している。
コードとモデルはhttps://github.com/liuzhengzhe/One-Thing-One-Click.comで公開されている。
関連論文リスト
- Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - ClickSeg: 3D Instance Segmentation with Click-Level Weak Annotations [29.231508413247457]
3次元のインスタンスセグメンテーション法は、トレーニングのために完全に注釈付けされた高密度ラベルを必要とすることが多い。
ClickSegは、クリックレベルの弱教師付き3Dインスタンスセグメンテーション手法である。
ClickSegは、完全に教師された相手の精度の90%の$simを達成している。
論文 参考訳(メタデータ) (2023-07-19T02:49:44Z) - Image Understands Point Cloud: Weakly Supervised 3D Semantic
Segmentation via Association Learning [59.64695628433855]
ラベルのない画像から補完的な情報を取り入れた3次元セグメンテーションのための新しいクロスモダリティ弱教師付き手法を提案する。
基本的に、ラベルの小さな部分のパワーを最大化するために、アクティブなラベリング戦略を備えたデュアルブランチネットワークを設計する。
提案手法は,1%未満のアクティブなアノテーションで,最先端の完全教師付き競合よりも優れていた。
論文 参考訳(メタデータ) (2022-09-16T07:59:04Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - Box2Seg: Learning Semantics of 3D Point Clouds with Box-Level
Supervision [65.19589997822155]
我々は3Dポイントクラウドのポイントレベルのセマンティクスをバウンディングボックスレベルの監視で学習するために,Box2Segと呼ばれるニューラルアーキテクチャを導入する。
提案するネットワークは,安価な,あるいは既定のバウンディングボックスレベルのアノテーションやサブクラウドレベルのタグでトレーニング可能であることを示す。
論文 参考訳(メタデータ) (2022-01-09T09:07:48Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。