論文の概要: DSP-Reg: Domain-Sensitive Parameter Regularization for Robust Domain Generalization
- arxiv url: http://arxiv.org/abs/2601.19394v1
- Date: Tue, 27 Jan 2026 09:24:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.267387
- Title: DSP-Reg: Domain-Sensitive Parameter Regularization for Robust Domain Generalization
- Title(参考訳): DSP-Reg:ロバスト領域一般化のための領域感性パラメータ正規化
- Authors: Xudong Han, Senkang Hu, Yihang Tao, Yu Guo, Philip Birch, Sam Tak Wu Kwong, Yuguang Fang,
- Abstract要約: ドメインの一般化(Domain Generalization)は、目に見えない分布からのデータにうまく対応できるモデルを開発することに焦点を当てる重要な領域である。
既存のアプローチは主に、ソースドメインのバリエーションに頑健なモデルが、目に見えないターゲットドメインにうまく一般化すると仮定する、ドメイン不変の特徴の学習に焦点を当てている。
本稿では,ソフトな正規化手法によりモデル最適化を導出する原則的フレームワークであるDSP-Regを提案する。
- 参考スコア(独自算出の注目度): 21.0252973774713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Generalization (DG) is a critical area that focuses on developing models capable of performing well on data from unseen distributions, which is essential for real-world applications. Existing approaches primarily concentrate on learning domain-invariant features, which assume that a model robust to variations in the source domains will generalize well to unseen target domains. However, these approaches neglect a deeper analysis at the parameter level, which makes the model hard to explicitly differentiate between parameters sensitive to domain shifts and those robust, potentially hindering its overall ability to generalize. In order to address these limitations, we first build a covariance-based parameter sensitivity analysis framework to quantify the sensitivity of each parameter in a model to domain shifts. By computing the covariance of parameter gradients across multiple source domains, we can identify parameters that are more susceptible to domain variations, which serves as our theoretical foundation. Based on this, we propose Domain-Sensitive Parameter Regularization (DSP-Reg), a principled framework that guides model optimization by a soft regularization technique that encourages the model to rely more on domain-invariant parameters while suppressing those that are domain-specific. This approach provides a more granular control over the model's learning process, leading to improved robustness and generalization to unseen domains. Extensive experiments on benchmarks, such as PACS, VLCS, OfficeHome, and DomainNet, demonstrate that DSP-Reg outperforms state-of-the-art approaches, achieving an average accuracy of 66.7\% and surpassing all baselines.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)は、現実のアプリケーションに不可欠な、目に見えない分布からのデータにうまく対応できるモデルを開発することに焦点を当てた重要な分野である。
既存のアプローチは主に、ソースドメインのバリエーションに頑健なモデルが、目に見えないターゲットドメインにうまく一般化すると仮定する、ドメイン不変の特徴の学習に焦点を当てている。
しかし、これらのアプローチはパラメータレベルでの深い分析を無視しており、ドメインシフトに敏感なパラメータとロバストなパラメータを明確に区別することは困難であり、全体的な一般化能力を妨げている可能性がある。
これらの制約に対処するために、まず共分散に基づくパラメータ感度分析フレームワークを構築し、モデル内の各パラメータのドメインシフトに対する感度を定量化する。
複数のソース領域にまたがるパラメータ勾配の共分散を計算することにより、我々の理論的基礎となる領域変動の影響を受けやすいパラメータを特定できる。
そこで本研究では,ドメイン固有なパラメータを抑えながら,ドメイン不変なパラメータに依存しやすくするソフト正規化手法により,モデル最適化を誘導する原則的フレームワークDSP-Regを提案する。
このアプローチは、モデルの学習プロセスをより細かく制御し、堅牢性を改善し、目に見えない領域に一般化する。
PACS、VLCS、OfficeHome、DomainNetなどのベンチマークに関する大規模な実験は、DSP-Regが最先端のアプローチより優れ、平均精度66.7\%に達し、すべてのベースラインを超えることを示した。
関連論文リスト
- Preserving Domain Generalization in Fine-Tuning via Joint Parameter Selection [26.366275954455514]
JPS(Joint Selection)は、パラメータの小さなサブセットへの更新を制限し、事前訓練されたモデルの強度を維持・活用する新しい手法である。
JPSは、最先端の領域一般化法と比較して優れた性能を示し、提案手法の有効性と有効性を実証する。
論文 参考訳(メタデータ) (2025-08-23T10:00:45Z) - FisherTune: Fisher-Guided Robust Tuning of Vision Foundation Models for Domain Generalized Segmentation [65.93276461982093]
既存のアプローチでは、パラメータを選択的に微調整するか、VFMを凍結し、アダプタのみを更新する。
我々は、Domain-Related Fisher Information Matrix (DR-FIM) によって誘導される堅牢な微調整法である textbfFisherTune を提案する。
DR-FIMはタスクやドメイン間でパラメータの感度を測定し、汎用性を維持し、DGSS適応性を高めるための選択的更新を可能にする。
論文 参考訳(メタデータ) (2025-03-23T04:47:15Z) - Normalization Perturbation: A Simple Domain Generalization Method for
Real-World Domain Shifts [133.99270341855728]
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく変化する可能性がある。
深層モデルはトレーニングドメインスタイルしか知らない。
このドメインスタイルのオーバーフィット問題を解決するために,正規化摂動を提案する。
論文 参考訳(メタデータ) (2022-11-08T17:36:49Z) - Learning to Learn Domain-invariant Parameters for Domain Generalization [29.821634033299855]
ドメイン一般化(DG)は、ソースドメインからドメイン不変表現をキャプチャすることでこの問題を克服することを目的としている。
DDC(Domain Decoupling and Combination)とDIGB(Domain-invariance-guided Backpropagation)の2つのモジュールを提案する。
提案手法は,高い一般化能力を有する最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-04T07:19:34Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。