論文の概要: 3D Segmentation Learning from Sparse Annotations and Hierarchical
Descriptors
- arxiv url: http://arxiv.org/abs/2105.12885v1
- Date: Thu, 27 May 2021 00:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 09:55:08.918255
- Title: 3D Segmentation Learning from Sparse Annotations and Hierarchical
Descriptors
- Title(参考訳): スパースアノテーションと階層記述子による3次元セグメンテーション学習
- Authors: Peng Yin, Lingyun Xu, Jianmin Ji
- Abstract要約: GIDSegはスパースアノテーションからセグメンテーションを同時に学習できる新しいアプローチである。
GIDSegは、動的エッジ畳み込みネットワークを介して、グローバルおよび個別の関係を描いている。
逆学習モジュールは、ID記述子の条件制約をさらに強化するためにも設計されている。
- 参考スコア(独自算出の注目度): 7.161067294394475
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: One of the main obstacles to 3D semantic segmentation is the significant
amount of endeavor required to generate expensive point-wise annotations for
fully supervised training. To alleviate manual efforts, we propose GIDSeg, a
novel approach that can simultaneously learn segmentation from sparse
annotations via reasoning global-regional structures and individual-vicinal
properties. GIDSeg depicts global- and individual- relation via a dynamic edge
convolution network coupled with a kernelized identity descriptor. The ensemble
effects are obtained by endowing a fine-grained receptive field to a
low-resolution voxelized map. In our GIDSeg, an adversarial learning module is
also designed to further enhance the conditional constraint of identity
descriptors within the joint feature distribution. Despite the apparent
simplicity, our proposed approach achieves superior performance over
state-of-the-art for inferencing 3D dense segmentation with only sparse
annotations. Particularly, with $5\%$ annotations of raw data, GIDSeg
outperforms other 3D segmentation methods.
- Abstract(参考訳): 3Dセマンティックセグメンテーションの主な障害の1つは、完全に教師されたトレーニングのために高価なポイントワイズアノテーションを生成するのに必要な膨大な労力である。
そこで本研究では,グローバル地域構造と個人選択特性の推論を通じて,分散アノテーションからセグメンテーションを同時に学習する手法であるgidsegを提案する。
GIDSegは、動的エッジ畳み込みネットワークとカーネル化されたID記述子を結合したグローバルおよび個別の関係を描いている。
このアンサンブル効果は、微粒な受容場を低解像度のボキセル化マップに付与することにより得られる。
我々のGIDSegでは,共同特徴分布におけるID記述子の条件制約を強化するために,逆学習モジュールも設計されている。
明快な単純さにもかかわらず,提案手法は,分散アノテーションのみを用いた3次元高密度セグメンテーションの参照において,最先端よりも優れた性能を実現する。
特に、生データの$5\%$アノテーションでは、gidsegは他の3dセグメンテーションメソッドよりも優れている。
関連論文リスト
- SAI3D: Segment Any Instance in 3D Scenes [72.65788433148309]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
Scan-Netとより挑戦的なScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - SmooSeg: Smoothness Prior for Unsupervised Semantic Segmentation [27.367986520072147]
教師なしセマンティックセグメンテーションは、手動のアノテーションなしでイメージをセマンティックグループに分割する難しいタスクである。
本研究では,SmooSegという手法を提案する。SmooSegは,観察中の近接性関係をスムーズな信号としてモデル化する自己教師付き学習手法である。
SmooSegは3つのデータセットのピクセル精度でSTEGOを著しく上回っている。
論文 参考訳(メタデータ) (2023-10-27T03:29:25Z) - Panoptic Out-of-Distribution Segmentation [11.388678390784195]
連立画素レベルのセマンティック・イン・ディストリビューションとインスタンス予測を用いたアウト・オブ・ディストリビューション分類のためのパノプティカル・アウト・オブ・ディストリビューションを提案する。
データセット、コード、トレーニングされたモデルをhttp://pods.cs.uni-freiburg.deで公開しています。
論文 参考訳(メタデータ) (2023-10-18T08:38:31Z) - Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - 3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching
between 3D and 2D Networks [26.29122638813974]
本稿では,3次元ネットワークと2次元ネットワークの相互学習を用いて,スパースアノテーションから頑健に学習できるフレームワークを提案する。
MMWHSデータセットに対する実験結果から,本手法は最先端(SOTA)半教師付きセグメンテーション法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-30T15:26:17Z) - SwIPE: Efficient and Robust Medical Image Segmentation with Implicit
Patch Embeddings [8.529909413148134]
正確な局所境界線とグローバルな形状コヒーレンスを実現するために,SwIPE(Segmentation with Implicit Patch Embeddings)を提案する。
その結果,最近の暗黙的アプローチよりもSwIPEは大幅に改善され,パラメータが10倍以上の最先端の離散手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-23T20:55:11Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z) - Three Ways to Improve Semantic Segmentation with Self-Supervised Depth
Estimation [90.87105131054419]
ラベルなし画像列からの自己教師付き単眼深度推定により強化された半教師付きセマンティックセマンティックセマンティックセマンティクスのフレームワークを提案する。
提案されたモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2020-12-19T21:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。