論文の概要: All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation
- arxiv url: http://arxiv.org/abs/2305.15832v2
- Date: Fri, 20 Oct 2023 14:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 05:35:36.601501
- Title: All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation
- Title(参考訳): 弱教師付き3次元セグメンテーションのためのエントロピー正規分布アライメント
- Authors: Liyao Tang, Zhe Chen, Shanshan Zhao, Chaoyue Wang, Dacheng Tao
- Abstract要約: 擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
- 参考スコア(独自算出の注目度): 67.30502812804271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pseudo-labels are widely employed in weakly supervised 3D segmentation tasks
where only sparse ground-truth labels are available for learning. Existing
methods often rely on empirical label selection strategies, such as confidence
thresholding, to generate beneficial pseudo-labels for model training. This
approach may, however, hinder the comprehensive exploitation of unlabeled data
points. We hypothesize that this selective usage arises from the noise in
pseudo-labels generated on unlabeled data. The noise in pseudo-labels may
result in significant discrepancies between pseudo-labels and model
predictions, thus confusing and affecting the model training greatly. To
address this issue, we propose a novel learning strategy to regularize the
generated pseudo-labels and effectively narrow the gaps between pseudo-labels
and model predictions. More specifically, our method introduces an Entropy
Regularization loss and a Distribution Alignment loss for weakly supervised
learning in 3D segmentation tasks, resulting in an ERDA learning strategy.
Interestingly, by using KL distance to formulate the distribution alignment
loss, it reduces to a deceptively simple cross-entropy-based loss which
optimizes both the pseudo-label generation network and the 3D segmentation
network simultaneously. Despite the simplicity, our method promisingly improves
the performance. We validate the effectiveness through extensive experiments on
various baselines and large-scale datasets. Results show that ERDA effectively
enables the effective usage of all unlabeled data points for learning and
achieves state-of-the-art performance under different settings. Remarkably, our
method can outperform fully-supervised baselines using only 1% of true
annotations. Code and model will be made publicly available at
https://github.com/LiyaoTang/ERDA.
- Abstract(参考訳): 疑似ラベルは弱教師付き3dセグメンテーションタスクで広く使われており、そこではスパースな接地ラベルのみが学習に利用できる。
既存の手法では、モデルトレーニングに有用な擬似ラベルを生成するために、信頼しきい値などの経験的ラベル選択戦略に依存することが多い。
しかしこのアプローチは、ラベルなしのデータポイントの包括的な利用を妨げる可能性がある。
この選択的な使用は、ラベルのないデータで生成された擬似ラベルのノイズから生じると仮定する。
擬似ラベルのノイズは、擬似ラベルとモデル予測との間に有意な差異をもたらす可能性があるため、モデルのトレーニングに大きな混乱と影響をもたらす。
そこで本研究では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭める学習手法を提案する。
より具体的には、3次元セグメンテーションタスクにおける弱教師付き学習のためのエントロピー正規化損失と分布アライメント損失を導入し、erda学習戦略を実現する。
興味深いことに、kl距離を用いて分布アライメント損失を定式化することにより、擬似ラベル生成ネットワークと3dセグメンテーションネットワークの両方を同時に最適化する、欺きながら単純なクロスエントロピーベース損失に還元される。
単純さにもかかわらず,本手法は性能を良好に向上させる。
各種ベースラインおよび大規模データセットに対する広範囲な実験により有効性を検証する。
その結果、ERDAは、ラベルのないすべてのデータポイントを学習に効果的に活用し、異なる環境下での最先端のパフォーマンスを実現する。
注目すべきことに,本手法は真のアノテーションの1%しか使用せず,完全教師付きベースラインよりも優れている。
コードとモデルはhttps://github.com/LiyaoTang/ERDA.comで公開される。
関連論文リスト
- Towards Modality-agnostic Label-efficient Segmentation with Entropy-Regularized Distribution Alignment [62.73503467108322]
この話題は、3次元の点雲のセグメンテーションで広く研究されている。
近年まで、擬似ラベルは、限られた地道ラベルによる訓練を容易にするために広く用いられてきた。
既存の擬似ラベリングアプローチは、重複しないデータのノイズやバリエーションに悩まされる可能性がある。
本研究では,学習用擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭める学習戦略を提案する。
論文 参考訳(メタデータ) (2024-08-29T13:31:15Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation [21.163070161951868]
半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
論文 参考訳(メタデータ) (2022-10-19T09:46:27Z) - Re-distributing Biased Pseudo Labels for Semi-supervised Semantic
Segmentation: A Baseline Investigation [30.688753736660725]
疑似ラベルを生成するために,DARS法とDARS法を提案する。
我々の手法は最先端の手法と比較して好適に機能する。
論文 参考訳(メタデータ) (2021-07-23T14:45:14Z) - Weakly Supervised Pseudo-Label assisted Learning for ALS Point Cloud
Semantic Segmentation [1.4620086904601473]
競合ポイントクラウドの結果は通常、大量のラベル付きデータに依存します。
本研究では,基礎的事実を限定した正確な結果を得るための擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2021-05-05T08:07:21Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。