論文の概要: PRCL: Probabilistic Representation Contrastive Learning for
Semi-Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2402.18117v1
- Date: Wed, 28 Feb 2024 07:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:08:04.529524
- Title: PRCL: Probabilistic Representation Contrastive Learning for
Semi-Supervised Semantic Segmentation
- Title(参考訳): PRCL:半教師付きセマンティックセグメンテーションのための確率的表現コントラスト学習
- Authors: Haoyu Xie, Changqi Wang, Jian Zhao, Yang Liu, Jun Dan, Chong Fu,
Baigui Sun
- Abstract要約: 本稿では、教師なし学習プロセスの堅牢性を高めるために、確率的表現コントラスト学習(PRCL)フレームワークと呼ばれる頑健なコントラストベースのS4フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.869077228828303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tremendous breakthroughs have been developed in Semi-Supervised Semantic
Segmentation (S4) through contrastive learning. However, due to limited
annotations, the guidance on unlabeled images is generated by the model itself,
which inevitably exists noise and disturbs the unsupervised training process.
To address this issue, we propose a robust contrastive-based S4 framework,
termed the Probabilistic Representation Contrastive Learning (PRCL) framework
to enhance the robustness of the unsupervised training process. We model the
pixel-wise representation as Probabilistic Representations (PR) via
multivariate Gaussian distribution and tune the contribution of the ambiguous
representations to tolerate the risk of inaccurate guidance in contrastive
learning. Furthermore, we introduce Global Distribution Prototypes (GDP) by
gathering all PRs throughout the whole training process. Since the GDP contains
the information of all representations with the same class, it is robust from
the instant noise in representations and bears the intra-class variance of
representations. In addition, we generate Virtual Negatives (VNs) based on GDP
to involve the contrastive learning process. Extensive experiments on two
public benchmarks demonstrate the superiority of our PRCL framework.
- Abstract(参考訳): セミスーパービジョンセマンティックセマンティックセグメンテーション (S4) において、コントラスト学習を通じて、トレメンダスブレークスルーが開発された。
しかし、アノテーションが限られているため、ラベルなし画像のガイダンスはモデル自体によって生成され、必然的にノイズが存在し、教師なしのトレーニングプロセスが妨害される。
この問題に対処するため,我々は,教師なし学習プロセスのロバスト性を高めるために,確率的表現コントラスト学習(prcl)フレームワークと呼ばれる,ロバストなコントラストベースのs4フレームワークを提案する。
我々は,多変量ガウス分布による確率的表現(pr)として画素分割表現をモデル化し,あいまいな表現の寄与を調整し,対照学習における不正確な指導のリスクを許容する。
さらに,全トレーニングプロセスを通じて全prを収集し,グローバル配布プロトタイプ(gdp)を導入する。
GDPは、同じクラスを持つすべての表現の情報を含むため、表現の瞬時ノイズから頑健であり、表現のクラス内分散を負う。
さらに、GDPに基づく仮想否定(VN)を生成し、対照的な学習プロセスを含む。
2つの公開ベンチマークに関する大規模な実験は、我々のPRCLフレームワークの優位性を示している。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Unsupervised Representation Learning by Balanced Self Attention Matching [2.3020018305241337]
本稿では,BAMと呼ばれる画像特徴を埋め込む自己教師型手法を提案する。
我々は,これらの分布とグローバルな均衡とエントロピー正規化バージョンに一致する損失を最小化することにより,豊かな表現と特徴の崩壊を回避する。
半教師付きベンチマークと移動学習ベンチマークの両方において,先行手法と競合する性能を示す。
論文 参考訳(メタデータ) (2024-08-04T12:52:44Z) - The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - A Distributional Analogue to the Successor Representation [54.99439648059807]
本稿では,分散強化学習のための新しい手法を提案する。
学習プロセスにおける遷移構造と報酬のクリーンな分離を解明する。
実例として,ゼロショットリスクに敏感な政策評価が可能であることを示す。
論文 参考訳(メタデータ) (2024-02-13T15:35:24Z) - Class Distribution Shifts in Zero-Shot Learning: Learning Robust Representations [3.8980564330208662]
シフトの原因となる属性が事前に不明であると仮定するモデルを提案する。
提案手法は,シミュレーションと実世界のデータセットの両方において,多様なクラス分布の一般化を改善する。
論文 参考訳(メタデータ) (2023-11-30T14:14:31Z) - Boosting Semi-Supervised Semantic Segmentation with Probabilistic
Representations [30.672426195148496]
本稿では,表現質を向上させるための確率的表現コントラスト学習フレームワークを提案する。
確率論の新しい視点からピクセルワイズ表現を定義する。
また,表現の信頼性を高めるため,分散分散の正規化も提案する。
論文 参考訳(メタデータ) (2022-10-26T12:47:29Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。