論文の概要: FixCLR: Negative-Class Contrastive Learning for Semi-Supervised Domain Generalization
- arxiv url: http://arxiv.org/abs/2506.20841v1
- Date: Wed, 25 Jun 2025 21:25:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.89212
- Title: FixCLR: Negative-Class Contrastive Learning for Semi-Supervised Domain Generalization
- Title(参考訳): FixCLR: 半スーパービジョンのドメイン一般化のための負のクラスコントラスト学習
- Authors: Ha Min Son, Shahbaz Rezaei, Xin Liu,
- Abstract要約: ラベルの不足のため、ドメインの一般化法の適用は性能が劣ることが多い。
FixCLRを紹介します。これは、すべてのドメインにわたるドメイン不変表現を明示的に学習するために、明確に正規化します。
我々の研究には、これまでSSDG研究で研究されていない広範な実験が含まれている。
- 参考スコア(独自算出の注目度): 6.683066713491661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised domain generalization (SSDG) aims to solve the problem of generalizing to out-of-distribution data when only a few labels are available. Due to label scarcity, applying domain generalization methods often underperform. Consequently, existing SSDG methods combine semi-supervised learning methods with various regularization terms. However, these methods do not explicitly regularize to learn domains invariant representations across all domains, which is a key goal for domain generalization. To address this, we introduce FixCLR. Inspired by success in self-supervised learning, we change two crucial components to adapt contrastive learning for explicit domain invariance regularization: utilization of class information from pseudo-labels and using only a repelling term. FixCLR can also be added on top of most existing SSDG and semi-supervised methods for complementary performance improvements. Our research includes extensive experiments that have not been previously explored in SSDG studies. These experiments include benchmarking different improvements to semi-supervised methods, evaluating the performance of pretrained versus non-pretrained models, and testing on datasets with many domains. Overall, FixCLR proves to be an effective SSDG method, especially when combined with other semi-supervised methods.
- Abstract(参考訳): 半教師付きドメイン一般化(SSDG)は、いくつかのラベルが利用可能であれば、配布外データへの一般化という問題を解決することを目的としている。
ラベルの不足のため、ドメインの一般化法の適用は性能が劣ることが多い。
その結果、既存のSSDG法は、半教師付き学習法と様々な正規化項を組み合わせている。
しかし、これらの手法は、すべての領域にまたがる不変表現を学習するために明示的に正規化することはなく、これはドメインの一般化の鍵となる目標である。
これを解決するために、FixCLRを紹介します。
自己教師型学習の成功に触発されて、私たちは2つの重要な要素を変更し、対照的な学習を明示的なドメイン不変性正規化に適用する:擬似ラベルからのクラス情報の利用と、反発項のみの使用。
FixCLRは、補完的なパフォーマンス改善のために、既存のSSDGおよび半教師付きメソッドの上に追加することもできる。
我々の研究には、これまでSSDG研究で研究されていない広範な実験が含まれている。
これらの実験には、半教師付きメソッドに対するさまざまな改善のベンチマーク、事前訓練されたモデルと非事前訓練されたモデルのパフォーマンスの評価、多くのドメインでデータセットをテストすることが含まれる。
全体として、FixCLRは、特に他の半教師付きメソッドと組み合わせた場合、有効なSSDGメソッドであることが証明されている。
関連論文リスト
- Domain-Guided Weight Modulation for Semi-Supervised Domain Generalization [11.392783918495404]
半教師付き領域一般化の課題について検討する。
目的は、ラベル付きデータのごく一部とラベルなしデータの比較的大きな部分だけを使用しながら、ドメイン一般化可能なモデルを学ぶことである。
そこで本研究では,様々なドメインシフトの下で,正確な擬似ラベルの生成を容易にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:26:23Z) - Towards Generalizing to Unseen Domains with Few Labels [7.002657345547741]
ラベル付きデータの限られたサブセットを活用することにより、ドメインの一般化可能な特徴を学習するモデルを得る。
ラベル付けされていないデータを活用できない既存のドメイン一般化(DG)手法は、半教師付き学習(SSL)法に比べて性能が劣る。
論文 参考訳(メタデータ) (2024-03-18T11:21:52Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。