論文の概要: PCR: Pessimistic Consistency Regularization for Semi-Supervised
Segmentation
- arxiv url: http://arxiv.org/abs/2210.08519v1
- Date: Sun, 16 Oct 2022 12:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:18:48.232537
- Title: PCR: Pessimistic Consistency Regularization for Semi-Supervised
Segmentation
- Title(参考訳): PCR : 半監督セグメンテーションのための悲観的一貫性規則化
- Authors: Pengchong Qiao, Zhidan Wei, Yu Wang, Chang Liu, Zhennan Wang, Guoli
Song, Jie Chen
- Abstract要約: 擬似ラベルが常に正しいとは限らないという悲観的ケースを考察した,悲観的一貫性規則化(PCR)を提案する。
私たちのメソッドは実装が容易で、フレームワークを変更することなく既存のベースラインに適用できます。
- 参考スコア(独自算出の注目度): 14.463728877546037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, state-of-the-art semi-supervised learning (SSL) segmentation
methods employ pseudo labels to train their models, which is an optimistic
training manner that supposes the predicted pseudo labels are correct. However,
their models will be optimized incorrectly when the above assumption does not
hold. In this paper, we propose a Pessimistic Consistency Regularization (PCR)
which considers a pessimistic case that pseudo labels are not always correct.
PCR makes it possible for our model to learn the ground truth (GT) in pessimism
by adaptively providing a candidate label set containing K proposals for each
unlabeled pixel. Specifically, we propose a pessimistic consistency loss which
trains our model to learn the possible GT from multiple candidate labels. In
addition, we develop a candidate label proposal method to adaptively decide
which pseudo labels are provided for each pixel. Our method is easy to
implement and could be applied to existing baselines without changing their
frameworks. Theoretical analysis and experiments on various benchmarks
demonstrate the superiority of our approach to state-of-the-art alternatives.
- Abstract(参考訳): 現在、最先端の半教師付き学習(ssl)のセグメンテーション手法は、予測された擬似ラベルが正しいと仮定した楽観的なトレーニング手法である、モデルのトレーニングに擬似ラベルを用いる。
しかし、上記の仮定が成り立たない場合、それらのモデルは誤って最適化される。
本稿では,擬似ラベルが必ずしも正しいとは限らない悲観的ケースを考察した,悲観的一貫性規則化(PCR)を提案する。
PCRにより,各画素にK提案を含む候補ラベルセットを適応的に提供することにより,悲観論において基底真理(GT)を学習することができる。
具体的には、複数の候補ラベルから可能なGTを学習するようにモデルを訓練する悲観的整合性損失を提案する。
さらに,各画素に対してどの擬似ラベルが提供されるかを適応的に決定する候補ラベル提案手法を開発した。
私たちのメソッドは実装が容易で、フレームワークを変更することなく既存のベースラインに適用できます。
様々なベンチマークに関する理論的解析と実験は、最先端の代替案に対する我々のアプローチの優位性を示している。
関連論文リスト
- Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Decomposition-based Generation Process for Instance-Dependent Partial
Label Learning [45.133781119468836]
部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニング例は、その中の1つだけが真である候補ラベルのセットに関連付けられている。
既存のほとんどのアプローチでは、トレーニングサンプルの誤りラベルを候補ラベルとしてランダムに選択し、候補ラベルの生成プロセスを簡単な方法でモデル化する。
候補ラベルの明示的にモデル化された生成プロセスに基づいて,最大Aポストミラー(MAP)を提案する。
論文 参考訳(メタデータ) (2022-04-08T05:18:51Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。