論文の概要: PRCL: Probabilistic Representation Contrastive Learning for
Semi-Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2402.18117v1
- Date: Wed, 28 Feb 2024 07:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:08:04.529524
- Title: PRCL: Probabilistic Representation Contrastive Learning for
Semi-Supervised Semantic Segmentation
- Title(参考訳): PRCL:半教師付きセマンティックセグメンテーションのための確率的表現コントラスト学習
- Authors: Haoyu Xie, Changqi Wang, Jian Zhao, Yang Liu, Jun Dan, Chong Fu,
Baigui Sun
- Abstract要約: 本稿では、教師なし学習プロセスの堅牢性を高めるために、確率的表現コントラスト学習(PRCL)フレームワークと呼ばれる頑健なコントラストベースのS4フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.869077228828303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tremendous breakthroughs have been developed in Semi-Supervised Semantic
Segmentation (S4) through contrastive learning. However, due to limited
annotations, the guidance on unlabeled images is generated by the model itself,
which inevitably exists noise and disturbs the unsupervised training process.
To address this issue, we propose a robust contrastive-based S4 framework,
termed the Probabilistic Representation Contrastive Learning (PRCL) framework
to enhance the robustness of the unsupervised training process. We model the
pixel-wise representation as Probabilistic Representations (PR) via
multivariate Gaussian distribution and tune the contribution of the ambiguous
representations to tolerate the risk of inaccurate guidance in contrastive
learning. Furthermore, we introduce Global Distribution Prototypes (GDP) by
gathering all PRs throughout the whole training process. Since the GDP contains
the information of all representations with the same class, it is robust from
the instant noise in representations and bears the intra-class variance of
representations. In addition, we generate Virtual Negatives (VNs) based on GDP
to involve the contrastive learning process. Extensive experiments on two
public benchmarks demonstrate the superiority of our PRCL framework.
- Abstract(参考訳): セミスーパービジョンセマンティックセマンティックセグメンテーション (S4) において、コントラスト学習を通じて、トレメンダスブレークスルーが開発された。
しかし、アノテーションが限られているため、ラベルなし画像のガイダンスはモデル自体によって生成され、必然的にノイズが存在し、教師なしのトレーニングプロセスが妨害される。
この問題に対処するため,我々は,教師なし学習プロセスのロバスト性を高めるために,確率的表現コントラスト学習(prcl)フレームワークと呼ばれる,ロバストなコントラストベースのs4フレームワークを提案する。
我々は,多変量ガウス分布による確率的表現(pr)として画素分割表現をモデル化し,あいまいな表現の寄与を調整し,対照学習における不正確な指導のリスクを許容する。
さらに,全トレーニングプロセスを通じて全prを収集し,グローバル配布プロトタイプ(gdp)を導入する。
GDPは、同じクラスを持つすべての表現の情報を含むため、表現の瞬時ノイズから頑健であり、表現のクラス内分散を負う。
さらに、GDPに基づく仮想否定(VN)を生成し、対照的な学習プロセスを含む。
2つの公開ベンチマークに関する大規模な実験は、我々のPRCLフレームワークの優位性を示している。
関連論文リスト
- The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - A Distributional Analogue to the Successor Representation [53.03619419915546]
本稿では,分散強化学習のための新しい手法を提案する。
学習プロセスにおける遷移構造と報酬のクリーンな分離を解明する。
実例として,ゼロショットリスクに敏感な政策評価が可能であることを示す。
論文 参考訳(メタデータ) (2024-02-13T15:35:24Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Space Engage: Collaborative Space Supervision for Contrastive-based
Semi-Supervised Semantic Segmentation [11.136170940699163]
Semi-Supervised Semantic (S4) は、ラベル付き画像に制限のあるセグメンテーションモデルをトレーニングすることを目的としている。
本稿では,潜在空間(表現空間)において,その表現をプロトタイプに完全に教師付きで集約する画素単位のコントラスト学習手法を提案する。
2つの公開ベンチマークの結果は、最先端の手法と比較して、提案手法の競合性能を実証している。
論文 参考訳(メタデータ) (2023-07-19T05:39:15Z) - Cross-Stream Contrastive Learning for Self-Supervised Skeleton-Based
Action Recognition [22.067143671631303]
自己教師型骨格に基づく行動認識は、対照的な学習の発展とともに急速に成長する。
骨格に基づく行動表現学習(CSCLR)のためのクロスストリームコントラスト学習フレームワークを提案する。
具体的には、CSCLRはストリーム内コントラストペアを利用するだけでなく、ストリーム間コントラストペアをハードサンプルとして導入し、より良い表現学習を定式化する。
論文 参考訳(メタデータ) (2023-05-03T10:31:35Z) - Boosting Semi-Supervised Semantic Segmentation with Probabilistic
Representations [30.672426195148496]
本稿では,表現質を向上させるための確率的表現コントラスト学習フレームワークを提案する。
確率論の新しい視点からピクセルワイズ表現を定義する。
また,表現の信頼性を高めるため,分散分散の正規化も提案する。
論文 参考訳(メタデータ) (2022-10-26T12:47:29Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。