論文の概要: Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation
- arxiv url: http://arxiv.org/abs/2510.13864v1
- Date: Mon, 13 Oct 2025 06:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.491988
- Title: Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation
- Title(参考訳): 動的重み付けによるロバストなグラジアル領域適応のための自己学習
- Authors: Zixi Wang, Yushe Cao, Yubo Huang, Jinzhu Wei, Jingzehua Xu, Shuai Zhang, Xin Lai,
- Abstract要約: 動的重み付き自己学習法(STDW)を提案する。
STDWは、GDA(Gradual Domain Adaptation)における堅牢性向上を目指す
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
- 参考スコア(独自算出の注目度): 11.973153070989289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new method called Self-Training with Dynamic Weighting (STDW), which aims to enhance robustness in Gradual Domain Adaptation (GDA) by addressing the challenge of smooth knowledge migration from the source to the target domain. Traditional GDA methods mitigate domain shift through intermediate domains and self-training but often suffer from inefficient knowledge migration or incomplete intermediate data. Our approach introduces a dynamic weighting mechanism that adaptively balances the loss contributions of the source and target domains during training. Specifically, we design an optimization framework governed by a time-varying hyperparameter $\varrho$ (progressing from 0 to 1), which controls the strength of domain-specific learning and ensures stable adaptation. The method leverages self-training to generate pseudo-labels and optimizes a weighted objective function for iterative model updates, maintaining robustness across intermediate domains. Experiments on rotated MNIST, color-shifted MNIST, portrait datasets, and the Cover Type dataset demonstrate that STDW outperforms existing baselines. Ablation studies further validate the critical role of $\varrho$'s dynamic scheduling in achieving progressive adaptation, confirming its effectiveness in reducing domain bias and improving generalization. This work provides both theoretical insights and a practical framework for robust gradual domain adaptation, with potential applications in dynamic real-world scenarios. The code is available at https://github.com/Dramwig/STDW.
- Abstract(参考訳): 本稿では,GDA(Gradual Domain Adaptation)の堅牢性向上を目的とした,動的重み付けによる自己学習(Self-Training with Dynamic Weighting, STDW)手法を提案する。
従来のGDA手法は、中間領域や自己学習を通じてドメインシフトを緩和するが、しばしば非効率的な知識マイグレーションや不完全な中間データに悩まされる。
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
具体的には、時間変化のハイパーパラメータ$\varrho$(0から1までのプログレッシブ)が支配する最適化フレームワークを設計し、ドメイン固有学習の強度を制御し、安定した適応を保証する。
この手法は自己学習を利用して擬似ラベルを生成し、反復的モデル更新のために重み付けされた目的関数を最適化し、中間領域間の堅牢性を維持する。
回転MNIST、色シフトMNIST、ポートレートデータセット、カバータイプデータセットの実験は、STDWが既存のベースラインより優れていることを示した。
アブレーション研究は、プログレッシブ適応を達成する上での$\varrho$の動的スケジューリングの重要な役割をさらに検証し、ドメインバイアスの低減と一般化の改善におけるその効果を確認する。
この研究は、理論的な洞察と、動的実世界のシナリオにおける潜在的な応用を含む、堅牢な段階的なドメイン適応のための実践的なフレームワークの両方を提供する。
コードはhttps://github.com/Dramwig/STDWで公開されている。
関連論文リスト
- GDO:Gradual Domain Osmosis [5.620015188968398]
本稿では,GDA(Gradual Domain Adaptation)において,ソースドメインからターゲットドメインへのスムーズな知識マイグレーションの問題を解決することを目的とした,Gradual Domain Osmosisと呼ばれる新しい手法を提案する。
従来のGradual Domain Adaptationメソッドは、中間ドメインの導入と自己学習戦略によってドメインバイアスを軽減するが、多くの場合、中間ドメインにおける非効率的な知識マイグレーションや欠落データといった課題に直面している。
論文 参考訳(メタデータ) (2025-01-31T14:25:45Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - Self-supervised Autoregressive Domain Adaptation for Time Series Data [9.75443057146649]
教師なしドメイン適応(UDA)は、視覚アプリケーションにおけるドメインシフト問題にうまく対処している。
これらの手法は、以下の理由により時系列データのパフォーマンスが制限される可能性がある。
本稿では,これらの制約に対処するための自己監督型自己回帰ドメイン適応(SLARDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-29T08:17:23Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。