論文の概要: Dynamic Domain Generalization
- arxiv url: http://arxiv.org/abs/2205.13913v1
- Date: Fri, 27 May 2022 11:29:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 13:32:06.931129
- Title: Dynamic Domain Generalization
- Title(参考訳): 動的ドメイン一般化
- Authors: Zhishu Sun, Zhifeng Shen, Luojun Lin, Yuanlong Yu, Zhifeng Yang,
Shicai Yang, Weijie Chen
- Abstract要約: 我々は、動的ドメイン一般化(DDG)と呼ばれる新しいDG変種を開発し、モデルが異なるドメインからのデータに適応するために、ネットワークパラメータをツイストすることを学ぶ。
具体的には、メタ調整器を利用して、異なるドメインの異なるデータに対して静的モデルに基づいてネットワークパラメータをツイストする。
このように、静的モデルはドメイン共有機能を学ぶために最適化され、メタ調整器はドメイン固有の機能を学ぶために設計されている。
- 参考スコア(独自算出の注目度): 10.252262302724608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) is a fundamental yet very challenging research
topic in machine learning. The existing arts mainly focus on learning
domain-invariant features with limited source domains in a static model.
Unfortunately, there is a lack of training-free mechanism to adjust the model
when generalized to the agnostic target domains. To tackle this problem, we
develop a brand-new DG variant, namely Dynamic Domain Generalization (DDG), in
which the model learns to twist the network parameters to adapt the data from
different domains. Specifically, we leverage a meta-adjuster to twist the
network parameters based on the static model with respect to different data
from different domains. In this way, the static model is optimized to learn
domain-shared features, while the meta-adjuster is designed to learn
domain-specific features. To enable this process, DomainMix is exploited to
simulate data from diverse domains during teaching the meta-adjuster to adapt
to the upcoming agnostic target domains. This learning mechanism urges the
model to generalize to different agnostic target domains via adjusting the
model without training. Extensive experiments demonstrate the effectiveness of
our proposed method. Code is available at: https://github.com/MetaVisionLab/DDG
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)は、機械学習における基本的な研究課題である。
既存のアーティファクトは主に静的モデルで限られたソースドメインでドメイン不変の機能を学ぶことに焦点を当てている。
残念ながら、非依存のターゲットドメインに一般化したときにモデルを調整するためのトレーニングフリーなメカニズムが欠如している。
この問題に対処するため、我々は新しいDG変種である動的ドメイン一般化(DDG)を開発し、モデルが異なるドメインからのデータに適応するためにネットワークパラメータをツイストすることを学ぶ。
具体的には、メタ調整器を利用して、異なるドメインの異なるデータに対して静的モデルに基づいてネットワークパラメータをねじる。
このように、静的モデルはドメイン共有機能を学ぶために最適化され、メタ調整器はドメイン固有の機能を学ぶために設計されている。
このプロセスを有効にするために、meta-adjusterに今後の非依存なターゲットドメインへの適応を教える際に、さまざまなドメインからのデータをシミュレートするためにdomainmixが利用される。
この学習メカニズムは、モデルをトレーニングなしで調整することで、モデルを異なる非依存のターゲットドメインに一般化するように促す。
提案手法の有効性を示す広範な実験を行った。
コードは、https://github.com/MetaVisionLab/DDGで入手できる。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Meta-DMoE: Adapting to Domain Shift by Meta-Distillation from
Mixture-of-Experts [33.21435044949033]
既存のほとんどのメソッドは、単一のモデルを使って複数のソースドメインでトレーニングを行います。
本稿では,知識蒸留プロセスとして定式化された非教師なし試験時間適応のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-08T02:28:10Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。