論文の概要: Soft Self-labeling and Potts Relaxations for Weakly-Supervised Segmentation
- arxiv url: http://arxiv.org/abs/2507.01721v1
- Date: Wed, 02 Jul 2025 13:52:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.272554
- Title: Soft Self-labeling and Potts Relaxations for Weakly-Supervised Segmentation
- Title(参考訳): 弱改良セグメンテーションのためのソフトセルフラベルとポッツ緩和
- Authors: Zhongwen Zhang, Yuri Boykov,
- Abstract要約: 弱教師付きセグメンテーションでは、ピクセルのごく一部だけが基底の真理ラベル(スクリブル)を持つ。
我々は,標準教師なしCRF/Potts損失の非ラベル画素への緩和を最適化する自己ラベル方式に着目する。
- 参考スコア(独自算出の注目度): 9.394359851234201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider weakly supervised segmentation where only a fraction of pixels have ground truth labels (scribbles) and focus on a self-labeling approach optimizing relaxations of the standard unsupervised CRF/Potts loss on unlabeled pixels. While WSSS methods can directly optimize such losses via gradient descent, prior work suggests that higher-order optimization can improve network training by introducing hidden pseudo-labels and powerful CRF sub-problem solvers, e.g. graph cut. However, previously used hard pseudo-labels can not represent class uncertainty or errors, which motivates soft self-labeling. We derive a principled auxiliary loss and systematically evaluate standard and new CRF relaxations (convex and non-convex), neighborhood systems, and terms connecting network predictions with soft pseudo-labels. We also propose a general continuous sub-problem solver. Using only standard architectures, soft self-labeling consistently improves scribble-based training and outperforms significantly more complex specialized WSSS systems. It can outperform full pixel-precise supervision. Our general ideas apply to other weakly-supervised problems/systems.
- Abstract(参考訳): 弱教師付きセグメンテーションは、少数のピクセルだけが基底真理ラベル(スクリブル)を持ち、非教師付き画素における標準のCRF/Potts損失の緩和を最適化する自己ラベル化アプローチに焦点をあてる。
WSSS法は勾配降下による損失を直接最適化できるが、先行研究は、隠れた擬似ラベルと強力なCRFサブプロブレム解法、例えばグラフカットを導入することにより、高次最適化がネットワークトレーニングを改善することを示唆している。
しかし、以前に使用されていたハードな擬似ラベルは、クラスの不確実性やエラーを表現できないため、ソフトな自己ラベルを動機付けている。
本稿では, 基本的補助損失を導出し, 標準および新しいCRF緩和(凸および非凸), 近隣システム, およびソフト擬似ラベルとネットワーク予測を接続する用語を体系的に評価する。
また、一般連続サブプロブレム解法も提案する。
標準的なアーキテクチャのみを使用して、ソフトなセルフラベルにより、スクリブルベースのトレーニングが一貫して改善され、より複雑なWSSSシステムよりも優れています。
完全なピクセル精度の監視よりも優れています。
我々の一般的な考え方は、他の弱い監督された問題やシステムにも当てはまる。
関連論文リスト
- An Uncertainty-Aware Pseudo-Label Selection Framework using Regularized
Conformal Prediction [0.0]
Pseudo-labeling (PL)は汎用的でドメインに依存しないSSLアプローチである。
PLは低校正モデルからの誤った高信頼予測により性能が低下する。
本稿では,不確実性を考慮した擬似ラベル選択フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T17:13:30Z) - Semi-Supervised Laplace Learning on Stiefel Manifolds [48.3427853588646]
グラフベースで教師付きサンプルを低ラベルレートで作成するためのフレームワークSequential Subspaceを開発した。
我々の手法は極めて低いレートで、高いラベルレートで達成できる。
論文 参考訳(メタデータ) (2023-07-31T20:19:36Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - Adaptive Label Smoothing To Regularize Large-Scale Graph Training [46.00927775402987]
本研究では, 適応ラベル平滑化法 (ALS) を提案する。
ALSはノードラベルを伝播して、前処理ステップで近隣ラベルの分布を集約し、その後、最適なスムーズなラベルをオンラインで更新して、特定のグラフ構造に適合させる。
論文 参考訳(メタデータ) (2021-08-30T23:51:31Z) - Learning with Noisy Labels via Sparse Regularization [76.31104997491695]
ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
クロスエントロピー(Cross Entropy, CE)など、一般的に使われている損失関数は、ノイズラベルへの過度なオーバーフィットに悩まされている。
我々は, スパース正規化戦略を導入し, ワンホット制約を近似する。
論文 参考訳(メタデータ) (2021-07-31T09:40:23Z) - Robust Trust Region for Weakly Supervised Segmentation [18.721108305669]
最新の結果を改善する定期的な損失のための新しい堅牢な信頼地域アプローチを提案します。
我々のアプローチは古典的連鎖則の高次一般化と見なすことができる。
論文 参考訳(メタデータ) (2021-04-05T15:11:29Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。