論文の概要: Parameter Exchange for Robust Dynamic Domain Generalization
- arxiv url: http://arxiv.org/abs/2311.13928v1
- Date: Thu, 23 Nov 2023 11:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:10:46.294756
- Title: Parameter Exchange for Robust Dynamic Domain Generalization
- Title(参考訳): ロバストな動的ドメイン一般化のためのパラメータ交換
- Authors: Luojun Lin, Zhifeng Shen, Zhishu Sun, Yuanlong Yu, Lei Zhang, Weijie
Chen
- Abstract要約: 非依存的なドメインシフトは、未知のターゲットドメインでモデル劣化の主な原因である。
ドメイン一般化(DDG)の最近の進歩は、未知のターゲットドメインに対するトレーニング不要な適応を実現するために動的ネットワークを使用している。
本稿では,静的成分と動的成分の組み合わせを摂動させる,シンプルで効果的な交換法を提案する。
- 参考スコア(独自算出の注目度): 15.399283073381513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agnostic domain shift is the main reason of model degradation on the unknown
target domains, which brings an urgent need to develop Domain Generalization
(DG). Recent advances at DG use dynamic networks to achieve training-free
adaptation on the unknown target domains, termed Dynamic Domain Generalization
(DDG), which compensates for the lack of self-adaptability in static models
with fixed weights. The parameters of dynamic networks can be decoupled into a
static and a dynamic component, which are designed to learn domain-invariant
and domain-specific features, respectively. Based on the existing arts, in this
work, we try to push the limits of DDG by disentangling the static and dynamic
components more thoroughly from an optimization perspective. Our main
consideration is that we can enable the static component to learn
domain-invariant features more comprehensively by augmenting the
domain-specific information. As a result, the more comprehensive
domain-invariant features learned by the static component can then enforce the
dynamic component to focus more on learning adaptive domain-specific features.
To this end, we propose a simple yet effective Parameter Exchange (PE) method
to perturb the combination between the static and dynamic components. We
optimize the model using the gradients from both the perturbed and
non-perturbed feed-forward jointly to implicitly achieve the aforementioned
disentanglement. In this way, the two components can be optimized in a
mutually-beneficial manner, which can resist the agnostic domain shifts and
improve the self-adaptability on the unknown target domain. Extensive
experiments show that PE can be easily plugged into existing dynamic networks
to improve their generalization ability without bells and whistles.
- Abstract(参考訳): ドメインの非依存化は、未知のターゲットドメインにおけるモデル劣化の主な原因であり、ドメイン一般化(DG)の開発が緊急に必要となる。
近年のDGは、固定重み付き静的モデルにおける自己適応性の欠如を補う、動的ドメイン一般化(DDG)と呼ばれる、未知のターゲットドメインに対するトレーニング不要適応を実現するために、動的ネットワークを使用している。
動的ネットワークのパラメータは、それぞれドメイン不変性とドメイン固有性を学ぶために設計された静的コンポーネントと動的コンポーネントに分離することができる。
本研究では,既存の技術に基づいて,静的および動的コンポーネントを最適化の観点からより徹底的に切り離すことにより,DDGの限界を推し進める。
ドメイン固有の情報を増強することで、静的コンポーネントがより包括的にドメイン不変な特徴を学べるようにすることが主な考慮事項です。
その結果、静的コンポーネントによって学習されるより包括的なドメイン不変機能は、動的コンポーネントを適応したドメイン固有の機能を学ぶことに集中させることができます。
そこで本研究では,静的成分と動的成分の組み合わせを摂動する,単純で効果的なパラメータ交換法を提案する。
摂動および非摂動フィードフォワードの勾配を併用してモデルを最適化し, 上記不等角化を暗黙的に達成する。
このように、2つのコンポーネントは相互に便宜的に最適化することができ、これは非依存領域シフトに抵抗し、未知のターゲット領域における自己適応性を改善することができる。
大規模な実験により、PEは既存の動的ネットワークに簡単に接続でき、ベルやホイッスルを使わずに一般化能力を向上させることができる。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Prompt-Driven Dynamic Object-Centric Learning for Single Domain
Generalization [61.64304227831361]
単一ドメインの一般化は、単一のソースドメインデータからモデルを学び、他の見えないターゲットドメイン上での一般的なパフォーマンスを達成することを目的としている。
本稿では,画像の複雑さの変化に対応することを目的とした,素早い学習に基づく動的物体中心知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T16:16:51Z) - MetaDefa: Meta-learning based on Domain Enhancement and Feature
Alignment for Single Domain Generalization [12.095382249996032]
モデル一般化性能を改善するために,ドメイン拡張と特徴アライメント(MetaDefa)に基づくメタラーニング手法を提案する。
本稿では、ソース領域と拡張領域の機能空間間の類似のターゲット領域に着目し、ドメイン不変性について検討する。
公開された2つのデータセットに対する大規模な実験により、MetaDefaは未知の複数のターゲットドメインにおいて、大きな一般化パフォーマンスのアドバンテージを持つことが示された。
論文 参考訳(メタデータ) (2023-11-27T15:13:02Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Single Domain Dynamic Generalization for Iris Presentation Attack
Detection [41.126916126040655]
アイリスプレゼンテーションの一般化はドメイン内の設定では大きな成功を収めたが、目に見えないドメインでは容易に分解できる。
本稿では,ドメイン不変性とドメイン固有性を利用した単一ドメイン動的一般化(SDDG)フレームワークを提案する。
提案手法は有効であり,LivDet-Iris 2017データセットの最先端性を上回っている。
論文 参考訳(メタデータ) (2023-05-22T07:54:13Z) - DynaGAN: Dynamic Few-shot Adaptation of GANs to Multiple Domains [26.95350186287616]
複数のドメインへのドメイン適応は、いくつかのトレーニングイメージから複数のドメインにまたがる複雑なイメージ分布を学習することを目的としている。
複数のターゲットドメインに対する新規な数ショットドメイン適応法であるDynaGANを提案する。
論文 参考訳(メタデータ) (2022-11-26T12:46:40Z) - Dynamic Domain Generalization [10.252262302724608]
我々は、動的ドメイン一般化(DDG)と呼ばれる新しいDG変種を開発し、モデルが異なるドメインからのデータに適応するために、ネットワークパラメータをツイストすることを学ぶ。
具体的には、メタ調整器を利用して、異なるドメインの異なるデータに対して静的モデルに基づいてネットワークパラメータをツイストする。
このように、静的モデルはドメイン共有機能を学ぶために最適化され、メタ調整器はドメイン固有の機能を学ぶために設計されている。
論文 参考訳(メタデータ) (2022-05-27T11:29:03Z) - Domain Adaptation for Object Detection using SE Adaptors and Center Loss [0.0]
本稿では,高速RCNNに基づく教師なしドメイン適応手法を導入し,ドメインシフトによる性能低下を防止する。
また、SEアダプタと呼ばれる圧縮励起機構を利用して、ドメインの注意を向上するアダプティブレイヤのファミリーも導入する。
最後に、インスタンスと画像レベルの表現に中心損失を組み込んで、クラス内分散を改善する。
論文 参考訳(メタデータ) (2022-05-25T17:18:31Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Off-Dynamics Reinforcement Learning: Training for Transfer with Domain
Classifiers [138.68213707587822]
強化学習におけるドメイン適応のためのシンプルで実践的で直感的なアプローチを提案する。
報酬関数を変更することで、力学の違いを補うことで、この目標を達成することができることを示す。
我々のアプローチは、連続状態とアクションを持つドメインに適用でき、ダイナミックスの明示的なモデルを学ぶ必要がない。
論文 参考訳(メタデータ) (2020-06-24T17:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。