論文の概要: Feature Modulation for Semi-Supervised Domain Generalization without Domain Labels
- arxiv url: http://arxiv.org/abs/2503.20897v1
- Date: Wed, 26 Mar 2025 18:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:54.881516
- Title: Feature Modulation for Semi-Supervised Domain Generalization without Domain Labels
- Title(参考訳): ドメインラベルを含まない半スーパービジョン領域一般化のための特徴変調
- Authors: Venuri Amarasinghe, Asini Jayakody, Isun Randila, Kalinga Bandara, Chamuditha Jayanga Galappaththige, Ranga Rodrigo,
- Abstract要約: 半教師付きドメイン一般化(SSDG)は、ラベル付きデータのごく一部をラベルなしデータとともに活用し、モデル一般化を強化する。
既存のSSDGメソッドの多くは、ラベルのないデータに対して擬似ラベル付け(PL)に依存しており、しばしばドメインラベルへのアクセスを前提としている。
我々は、未ラベルデータのドメインラベルがトレーニング中に利用できない、より困難なドメインラベル非依存のSSDGに取り組む。
本稿では,ドメイン固有情報を抑えつつ,クラス識別的特徴を高める特徴変調戦略を提案する。
- 参考スコア(独自算出の注目度): 1.2461397728727208
- License:
- Abstract: Semi-supervised domain generalization (SSDG) leverages a small fraction of labeled data alongside unlabeled data to enhance model generalization. Most of the existing SSDG methods rely on pseudo-labeling (PL) for unlabeled data, often assuming access to domain labels-a privilege not always available. However, domain shifts introduce domain noise, leading to inconsistent PLs that degrade model performance. Methods derived from FixMatch suffer particularly from lower PL accuracy, reducing the effectiveness of unlabeled data. To address this, we tackle the more challenging domain-label agnostic SSDG, where domain labels for unlabeled data are not available during training. First, we propose a feature modulation strategy that enhances class-discriminative features while suppressing domain-specific information. This modulation shifts features toward Similar Average Representations-a modified version of class prototypes-that are robust across domains, encouraging the classifier to distinguish between closely related classes and feature extractor to form tightly clustered, domain-invariant representations. Second, to mitigate domain noise and improve pseudo-label accuracy, we introduce a loss-scaling function that dynamically lowers the fixed confidence threshold for pseudo-labels, optimizing the use of unlabeled data. With these key innovations, our approach achieves significant improvements on four major domain generalization benchmarks-even without domain labels. We will make the code available.
- Abstract(参考訳): 半教師付きドメイン一般化(SSDG)は、ラベル付きデータのごく一部をラベルなしデータとともに活用し、モデル一般化を強化する。
既存のSSDGメソッドの多くは、ラベルのないデータに対して擬似ラベル付け(PL)に依存しており、しばしばドメインラベルへのアクセスを前提としている。
しかし、ドメインシフトはドメインノイズを導入し、モデルパフォーマンスを低下させる一貫性のないPLをもたらす。
FixMatchから派生した手法は特にPLの精度が低下し、ラベルなしデータの有効性が低下する。
これを解決するために、トレーニング中に未ラベルデータのドメインラベルが利用できない、より困難なドメインラベル非依存のSSDGに取り組む。
まず、ドメイン固有情報を抑えながら、クラス識別的特徴を高める特徴変調戦略を提案する。
この変調は、ドメイン間で堅牢なクラスプロトタイプの修正版であるSimisal Average Representations(英語版)に特徴をシフトさせ、分類器が密接な関係のあるクラスと特徴抽出器を区別し、密集したクラスタ化されたドメイン不変表現を形成するように促す。
第二に、ドメインノイズを軽減し、擬似ラベル精度を向上させるために、擬似ラベルに対する固定信頼閾値を動的に下げ、未ラベルデータの使用を最適化するロススケーリング機能を導入する。
これらの重要な革新により、ドメインラベルなしでも4つの主要なドメイン一般化ベンチマークにおいて大幅な改善が達成される。
コードを利用可能にします。
関連論文リスト
- GenGMM: Generalized Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation [0.9626666671366837]
一般化ガウス混合(GenGMM)ドメイン適応モデルを導入する。
実験は我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-21T20:21:09Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Domain Adaptation Using Pseudo Labels [16.79672078512152]
ラベル付き対象データがない場合、教師なしのドメイン適応アプローチは、ソースとターゲットドメインの限界分布を整合させようとする。
我々は,複数段階の擬似ラベル修正手法を用いて,対象ドメインの正確なラベルを決定するために事前訓練ネットワークをデプロイする。
複数のデータセットに対する結果から, 複雑な最先端技術と比較して, 簡単な手順の有効性が示された。
論文 参考訳(メタデータ) (2024-02-09T22:15:11Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Better Pseudo-label: Joint Domain-aware Label and Dual-classifier for
Semi-supervised Domain Generalization [26.255457629490135]
本稿では,高品質な擬似ラベルを生成するために,共同ドメイン認識ラベルと二重分類器を用いた新しいフレームワークを提案する。
ドメインシフト中の正確な擬似ラベルを予測するために、ドメイン対応擬似ラベルモジュールを開発する。
また、一般化と擬似ラベルの矛盾した目標を考えると、訓練過程において擬似ラベルとドメインの一般化を独立に行うために二重分類器を用いる。
論文 参考訳(メタデータ) (2021-10-10T15:17:27Z) - Select, Label, and Mix: Learning Discriminative Invariant Feature
Representations for Partial Domain Adaptation [55.73722120043086]
部分領域適応のための識別的不変特徴表現を学習するための「選択、ラベル、混合(SLM)」フレームワークを開発した。
まず, 正の移動を避けるために, 外部からのサンプルを自動的にフィルタする, 単純で効率的な「選択」モジュールを提案する。
次に、「ラベル」モジュールは、ラベル付きソースドメインデータと生成されたターゲットドメインの擬似ラベルの両方を用いて分類器を反復的に訓練し、潜在空間の識別性を高める。
論文 参考訳(メタデータ) (2020-12-06T19:29:32Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。