論文の概要: Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation
- arxiv url: http://arxiv.org/abs/2501.19159v2
- Date: Thu, 09 Oct 2025 02:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.357323
- Title: Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation
- Title(参考訳): 動的重み付けによるロバストなグラジアル領域適応のための自己学習
- Authors: Zixi Wang, Yushe Cao, Yubo Huang, Jinzhu Wei, Jingzehua Xu, Shuai Zhang, Xin Lai,
- Abstract要約: 動的重み付き自己学習法(STDW)を提案する。
STDWは、GDA(Gradual Domain Adaptation)における堅牢性向上を目指す
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
- 参考スコア(独自算出の注目度): 11.973153070989289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new method called Self-Training with Dynamic Weighting (STDW), which aims to enhance robustness in Gradual Domain Adaptation (GDA) by addressing the challenge of smooth knowledge migration from the source to the target domain. Traditional GDA methods mitigate domain shift through intermediate domains and self-training but often suffer from inefficient knowledge migration or incomplete intermediate data. Our approach introduces a dynamic weighting mechanism that adaptively balances the loss contributions of the source and target domains during training. Specifically, we design an optimization framework governed by a time-varying hyperparameter $\varrho$ (progressing from 0 to 1), which controls the strength of domain-specific learning and ensures stable adaptation. The method leverages self-training to generate pseudo-labels and optimizes a weighted objective function for iterative model updates, maintaining robustness across intermediate domains. Experiments on rotated MNIST, color-shifted MNIST, portrait datasets, and the Cover Type dataset demonstrate that STDW outperforms existing baselines. Ablation studies further validate the critical role of $\varrho$'s dynamic scheduling in achieving progressive adaptation, confirming its effectiveness in reducing domain bias and improving generalization. This work provides both theoretical insights and a practical framework for robust gradual domain adaptation, with potential applications in dynamic real-world scenarios. The code is available at https://github.com/Dramwig/STDW.
- Abstract(参考訳): 本稿では,GDA(Gradual Domain Adaptation)の堅牢性向上を目的とした,動的重み付けによる自己学習(Self-Training with Dynamic Weighting, STDW)手法を提案する。
従来のGDA手法は、中間領域や自己学習を通じてドメインシフトを緩和するが、しばしば非効率的な知識マイグレーションや不完全な中間データに悩まされる。
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
具体的には、時間変化のハイパーパラメータ$\varrho$(0から1までのプログレッシブ)が支配する最適化フレームワークを設計し、ドメイン固有学習の強度を制御し、安定した適応を保証する。
この手法は自己学習を利用して擬似ラベルを生成し、反復的モデル更新のために重み付けされた目的関数を最適化し、中間領域間の堅牢性を維持する。
回転MNIST、色シフトMNIST、ポートレートデータセット、カバータイプデータセットの実験は、STDWが既存のベースラインより優れていることを示した。
アブレーション研究は、プログレッシブ適応を達成する上での$\varrho$の動的スケジューリングの重要な役割をさらに検証し、ドメインバイアスの低減と一般化の改善におけるその効果を確認する。
この研究は、理論的な洞察と、動的実世界のシナリオにおける潜在的な応用を含む、堅牢な段階的なドメイン適応のための実践的なフレームワークの両方を提供する。
コードはhttps://github.com/Dramwig/STDWで公開されている。
関連論文リスト
- Cross-Domain Diffusion with Progressive Alignment for Efficient Adaptive Retrieval [52.67656818203429]
非教師付き効率的なドメイン適応検索は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存のメソッドは、ターゲットドメインの潜在的なノイズに対処できず、ドメイン間で直接高レベルな機能を調整します。
そこで本研究では,これらの課題に対処する新しいクロスドメイン拡散・プログレッシブアライメント法(COUPLE)を提案する。
論文 参考訳(メタデータ) (2025-05-20T04:17:39Z) - Gradient-Guided Annealing for Domain Generalization [5.124256074746721]
ドメインの一般化効率を向上させるため,GGAアルゴリズムを提案する。
GGAの有効性は、広く受け入れられ、困難な画像分類領域の一般化ベンチマークで評価される。
論文 参考訳(メタデータ) (2025-02-27T15:01:55Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Effective Restoration of Source Knowledge in Continual Test Time
Adaptation [44.17577480511772]
本稿では、動的環境におけるドメインシフトを識別できる教師なし領域変更検出手法を提案する。
情報源から知識を復元することにより、モデルパラメータの段階的劣化に起因する負の結果を効果的に補正する。
我々は,最先端の適応手法と比較して,提案手法の優れた性能を示すために,ベンチマークデータセットの広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-08T19:21:48Z) - Normalization Perturbation: A Simple Domain Generalization Method for
Real-World Domain Shifts [133.99270341855728]
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく変化する可能性がある。
深層モデルはトレーニングドメインスタイルしか知らない。
このドメインスタイルのオーバーフィット問題を解決するために,正規化摂動を提案する。
論文 参考訳(メタデータ) (2022-11-08T17:36:49Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [26.21464286134764]
本研究では、ラベル付きソースドメインとラベルなしターゲットドメインのシーケンスをモデルに提示する連続的なドメイン適応の問題について検討する。
本研究では,これらの障害を解決するために,グラディエント正規化コントラスト学習を提案する。
本手法は,ラベル付きソースドメインとラベル付きターゲットドメインを併用することにより,意味的識別性とドメイン不変性の両方を共同で学習することができる。
論文 参考訳(メタデータ) (2020-07-25T14:30:03Z) - Adversarial Weighting for Domain Adaptation in Regression [4.34858896385326]
制御ドメイン適応の文脈において、回帰タスクを処理するための新しいインスタンスベースのアプローチを提案する。
本研究では,情報源重み付け方式とタスクを1つのフィードフォワード勾配下で学習する逆ネットワークアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-06-15T09:44:04Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。