論文の概要: Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation
- arxiv url: http://arxiv.org/abs/2501.19159v2
- Date: Thu, 09 Oct 2025 02:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.357323
- Title: Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation
- Title(参考訳): 動的重み付けによるロバストなグラジアル領域適応のための自己学習
- Authors: Zixi Wang, Yushe Cao, Yubo Huang, Jinzhu Wei, Jingzehua Xu, Shuai Zhang, Xin Lai,
- Abstract要約: 動的重み付き自己学習法(STDW)を提案する。
STDWは、GDA(Gradual Domain Adaptation)における堅牢性向上を目指す
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
- 参考スコア(独自算出の注目度): 11.973153070989289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new method called Self-Training with Dynamic Weighting (STDW), which aims to enhance robustness in Gradual Domain Adaptation (GDA) by addressing the challenge of smooth knowledge migration from the source to the target domain. Traditional GDA methods mitigate domain shift through intermediate domains and self-training but often suffer from inefficient knowledge migration or incomplete intermediate data. Our approach introduces a dynamic weighting mechanism that adaptively balances the loss contributions of the source and target domains during training. Specifically, we design an optimization framework governed by a time-varying hyperparameter $\varrho$ (progressing from 0 to 1), which controls the strength of domain-specific learning and ensures stable adaptation. The method leverages self-training to generate pseudo-labels and optimizes a weighted objective function for iterative model updates, maintaining robustness across intermediate domains. Experiments on rotated MNIST, color-shifted MNIST, portrait datasets, and the Cover Type dataset demonstrate that STDW outperforms existing baselines. Ablation studies further validate the critical role of $\varrho$'s dynamic scheduling in achieving progressive adaptation, confirming its effectiveness in reducing domain bias and improving generalization. This work provides both theoretical insights and a practical framework for robust gradual domain adaptation, with potential applications in dynamic real-world scenarios. The code is available at https://github.com/Dramwig/STDW.
- Abstract(参考訳): 本稿では,GDA(Gradual Domain Adaptation)の堅牢性向上を目的とした,動的重み付けによる自己学習(Self-Training with Dynamic Weighting, STDW)手法を提案する。
従来のGDA手法は、中間領域や自己学習を通じてドメインシフトを緩和するが、しばしば非効率的な知識マイグレーションや不完全な中間データに悩まされる。
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
具体的には、時間変化のハイパーパラメータ$\varrho$(0から1までのプログレッシブ)が支配する最適化フレームワークを設計し、ドメイン固有学習の強度を制御し、安定した適応を保証する。
この手法は自己学習を利用して擬似ラベルを生成し、反復的モデル更新のために重み付けされた目的関数を最適化し、中間領域間の堅牢性を維持する。
回転MNIST、色シフトMNIST、ポートレートデータセット、カバータイプデータセットの実験は、STDWが既存のベースラインより優れていることを示した。
アブレーション研究は、プログレッシブ適応を達成する上での$\varrho$の動的スケジューリングの重要な役割をさらに検証し、ドメインバイアスの低減と一般化の改善におけるその効果を確認する。
この研究は、理論的な洞察と、動的実世界のシナリオにおける潜在的な応用を含む、堅牢な段階的なドメイン適応のための実践的なフレームワークの両方を提供する。
コードはhttps://github.com/Dramwig/STDWで公開されている。
関連論文リスト
- Minimax optimal adaptive structured transfer learning through semi-parametric domain-varying coefficient model [9.091986429838117]
本研究では,条件分布ドリフト下でのマルチソース単一ターゲット移動学習問題について検討する。
情報ソース領域からの強度を選択的に借用する適応的伝達学習推定器を開発した。
論文 参考訳(メタデータ) (2026-02-20T03:53:06Z) - Rethinking the Flow-Based Gradual Domain Adaption: A Semi-Dual Optimal Transport Perspective [47.7700613919136]
中間領域を構築するためのエントロピー規則化半二重不均衡最適輸送(E-SUOT)フレームワークを提案する。
具体的には、フローベースGDAをラグランジアン双対問題として再構成し、確率推定の必要性を回避するための等価な半双対目的を導出する。
論文 参考訳(メタデータ) (2026-02-01T12:07:54Z) - Simulating Distribution Dynamics: Liquid Temporal Feature Evolution for Single-Domain Generalized Object Detection [58.25418970608328]
Single-Domain Generalized Object Detection (Single-DGOD)は、あるソースドメインで訓練された検出器を複数の未知のドメインに転送することを目的としている。
シングルDGODの既存の方法は通常、データの多様性を拡大するために離散的なデータ拡張や静的摂動法に依存している。
そこで本研究では,ソース領域から潜伏分布のシミュレーションに至るまでの機能の進化をシミュレートする手法を提案する。
論文 参考訳(メタデータ) (2025-11-13T03:10:39Z) - Self-Training with Dynamic Weighting for Robust Gradual Domain Adaptation [11.973153070989289]
動的重み付き自己学習法(STDW)を提案する。
STDWは、GDA(Gradual Domain Adaptation)における堅牢性向上を目指す
本手法では,トレーニング中のソースとターゲットドメインの損失寄与を適応的にバランスする動的重み付け機構を導入する。
論文 参考訳(メタデータ) (2025-10-13T06:13:23Z) - Cross-Domain Diffusion with Progressive Alignment for Efficient Adaptive Retrieval [52.67656818203429]
非教師付き効率的なドメイン適応検索は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存のメソッドは、ターゲットドメインの潜在的なノイズに対処できず、ドメイン間で直接高レベルな機能を調整します。
そこで本研究では,これらの課題に対処する新しいクロスドメイン拡散・プログレッシブアライメント法(COUPLE)を提案する。
論文 参考訳(メタデータ) (2025-05-20T04:17:39Z) - DIDS: Domain Impact-aware Data Sampling for Large Language Model Training [61.10643823069603]
大規模言語モデルに対するドメインインパクト対応データサンプリング(DIDS)を提案する。
学習効果に基づくDIDSグループトレーニングデータでは、プロキシ言語モデルと次元削減が使用される。
同等のトレーニング効率を維持しながら平均パフォーマンスを3.4%向上させる。
論文 参考訳(メタデータ) (2025-04-17T13:09:38Z) - Gradient-Guided Annealing for Domain Generalization [5.124256074746721]
ドメインの一般化効率を向上させるため,GGAアルゴリズムを提案する。
GGAの有効性は、広く受け入れられ、困難な画像分類領域の一般化ベンチマークで評価される。
論文 参考訳(メタデータ) (2025-02-27T15:01:55Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Effective Restoration of Source Knowledge in Continual Test Time
Adaptation [44.17577480511772]
本稿では、動的環境におけるドメインシフトを識別できる教師なし領域変更検出手法を提案する。
情報源から知識を復元することにより、モデルパラメータの段階的劣化に起因する負の結果を効果的に補正する。
我々は,最先端の適応手法と比較して,提案手法の優れた性能を示すために,ベンチマークデータセットの広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-08T19:21:48Z) - Normalization Perturbation: A Simple Domain Generalization Method for
Real-World Domain Shifts [133.99270341855728]
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく変化する可能性がある。
深層モデルはトレーニングドメインスタイルしか知らない。
このドメインスタイルのオーバーフィット問題を解決するために,正規化摂動を提案する。
論文 参考訳(メタデータ) (2022-11-08T17:36:49Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [26.21464286134764]
本研究では、ラベル付きソースドメインとラベルなしターゲットドメインのシーケンスをモデルに提示する連続的なドメイン適応の問題について検討する。
本研究では,これらの障害を解決するために,グラディエント正規化コントラスト学習を提案する。
本手法は,ラベル付きソースドメインとラベル付きターゲットドメインを併用することにより,意味的識別性とドメイン不変性の両方を共同で学習することができる。
論文 参考訳(メタデータ) (2020-07-25T14:30:03Z) - Adversarial Weighting for Domain Adaptation in Regression [4.34858896385326]
制御ドメイン適応の文脈において、回帰タスクを処理するための新しいインスタンスベースのアプローチを提案する。
本研究では,情報源重み付け方式とタスクを1つのフィードフォワード勾配下で学習する逆ネットワークアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-06-15T09:44:04Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。