論文の概要: Domain-Guided Weight Modulation for Semi-Supervised Domain Generalization
- arxiv url: http://arxiv.org/abs/2409.03509v1
- Date: Wed, 4 Sep 2024 01:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 20:40:17.865629
- Title: Domain-Guided Weight Modulation for Semi-Supervised Domain Generalization
- Title(参考訳): 半スーパービジョン領域一般化のためのドメインガイド重み変調
- Authors: Chamuditha Jayanaga Galappaththige, Zachary Izzo, Xilin He, Honglu Zhou, Muhammad Haris Khan,
- Abstract要約: 半教師付き領域一般化の課題について検討する。
目的は、ラベル付きデータのごく一部とラベルなしデータの比較的大きな部分だけを使用しながら、ドメイン一般化可能なモデルを学ぶことである。
そこで本研究では,様々なドメインシフトの下で,正確な擬似ラベルの生成を容易にする新しい手法を提案する。
- 参考スコア(独自算出の注目度): 11.392783918495404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unarguably, deep learning models capable of generalizing to unseen domain data while leveraging a few labels are of great practical significance due to low developmental costs. In search of this endeavor, we study the challenging problem of semi-supervised domain generalization (SSDG), where the goal is to learn a domain-generalizable model while using only a small fraction of labeled data and a relatively large fraction of unlabeled data. Domain generalization (DG) methods show subpar performance under the SSDG setting, whereas semi-supervised learning (SSL) methods demonstrate relatively better performance, however, they are considerably poor compared to the fully-supervised DG methods. Towards handling this new, but challenging problem of SSDG, we propose a novel method that can facilitate the generation of accurate pseudo-labels under various domain shifts. This is accomplished by retaining the domain-level specialism in the classifier during training corresponding to each source domain. Specifically, we first create domain-level information vectors on the fly which are then utilized to learn a domain-aware mask for modulating the classifier's weights. We provide a mathematical interpretation for the effect of this modulation procedure on both pseudo-labeling and model training. Our method is plug-and-play and can be readily applied to different SSL baselines for SSDG. Extensive experiments on six challenging datasets in two different SSDG settings show that our method provides visible gains over the various strong SSL-based SSDG baselines.
- Abstract(参考訳): 必然的に、いくつかのラベルを活用しながら、ドメインデータを見落とさずに一般化できるディープラーニングモデルは、開発コストが低いため、非常に実用的に重要である。
そこで本研究では,少数のラベル付きデータと比較的少数のラベル付きデータを用いて,ドメイン一般化可能なモデルを学習することを目的とする,半教師付きドメイン一般化(SSDG)の課題について検討する。
ドメイン一般化(DG)法はSSDG設定下でのサブパー性能を示すのに対し、半教師付き学習(SSL)法は比較的優れた性能を示すが、完全教師付きDG法と比較してかなり劣る。
SSDGの新たな課題に対処するために,様々なドメインシフトの下で正確な擬似ラベルの生成を容易にする手法を提案する。
これは、各ソースドメインに対応するトレーニング中に、分類器にドメインレベルの特殊性を保持することで達成される。
具体的には、まずハエでドメインレベルの情報ベクトルを作成し、次に、分類器の重みを調節するためのドメイン認識マスクを学習する。
本手法が擬似ラベルとモデルトレーニングに与える影響を数学的に解釈する。
本手法はプラグアンドプレイであり,SSDGの異なるSSLベースラインに容易に適用可能である。
2つの異なるSSDG設定における6つの挑戦的データセットに対する大規模な実験は、我々の手法がSSLベースのSSDGベースラインに対して可視的な利得を提供することを示している。
関連論文リスト
- Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Grounding Stylistic Domain Generalization with Quantitative Domain Shift Measures and Synthetic Scene Images [63.58800688320182]
ドメインの一般化は機械学習において難しい課題である。
現在の方法論は、スタイリスティック領域におけるシフトに関する定量的な理解を欠いている。
これらのリスクに対処する新しいDGパラダイムを導入する。
論文 参考訳(メタデータ) (2024-05-24T22:13:31Z) - Towards Generalizing to Unseen Domains with Few Labels [7.002657345547741]
ラベル付きデータの限られたサブセットを活用することにより、ドメインの一般化可能な特徴を学習するモデルを得る。
ラベル付けされていないデータを活用できない既存のドメイン一般化(DG)手法は、半教師付き学習(SSL)法に比べて性能が劣る。
論文 参考訳(メタデータ) (2024-03-18T11:21:52Z) - Improving Pseudo-labelling and Enhancing Robustness for Semi-Supervised Domain Generalization [7.9776163947539755]
自動化医療のような現実のアプリケーションに不可欠な半スーパービジョン・ドメイン・ジェネリゼーションの問題について検討する。
モデル平均化を用いた新しい不確実性誘導擬似ラベリングを用いたSSDG手法を提案する。
我々の不確実性誘導型擬似ラベリング(UPL)は、モデル不確実性を利用して擬似ラベリング選択を改善する。
論文 参考訳(メタデータ) (2024-01-25T05:55:44Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Towards domain-invariant Self-Supervised Learning with Batch Styles
Standardization [1.6060199783864477]
Batch Styles Standardization (BSS) は、バッチ内の画像のスタイルを標準化するシンプルな手法である。
BSSは未確認領域でのダウンストリームタスク性能を著しく改善し、UDG手法よりも優れ、競合することが多い。
論文 参考訳(メタデータ) (2023-03-10T17:09:04Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - MultiMatch: Multi-task Learning for Semi-supervised Domain Generalization [55.06956781674986]
我々は、各ソースドメインにいくつかのラベル情報がある半教師付きドメイン一般化タスクの解決に頼っている。
我々は、MultiMatchを提案し、FixMatchをマルチタスク学習フレームワークに拡張し、SSDGのための高品質な擬似ラベルを生成する。
提案手法の有効性を検証し,いくつかのベンチマークDGデータセット上で既存の半教師付き手法とSSDG法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T14:44:33Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。