論文の概要: Leveraging Domain Relations for Domain Generalization
- arxiv url: http://arxiv.org/abs/2302.02609v1
- Date: Mon, 6 Feb 2023 08:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:24:11.862470
- Title: Leveraging Domain Relations for Domain Generalization
- Title(参考訳): ドメインの一般化におけるドメイン関係の活用
- Authors: Huaxiu Yao, Xinyu Yang, Xinyi Pan, Shengchao Liu, Pang Wei Koh,
Chelsea Finn
- Abstract要約: D3Gは異なるドメイン間の関係を利用してドメイン固有のモデルを学ぶ。
D3Gは, 平均10.6%の性能向上を図りながら, 常に最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 77.75140035123063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution shift is a major challenge in machine learning, as models often
perform poorly during the test stage if the test distribution differs from the
training distribution. In this paper, we focus on domain shifts, which occur
when the model is applied to new domains that are different from the ones it
was trained on, and propose a new approach called D^3G. Unlike previous
approaches that aim to learn a single model that is domain invariant, D^3G
learns domain-specific models by leveraging the relations among different
domains. Concretely, D^3G learns a set of training-domain-specific functions
during the training stage and reweights them based on domain relations during
the test stage. These domain relations can be directly derived or learned from
fixed domain meta-data. Under mild assumptions, we theoretically proved that
using domain relations to reweight training-domain-specific functions achieves
stronger generalization compared to averaging them. Empirically, we evaluated
the effectiveness of D^3G using both toy and real-world datasets for tasks such
as temperature regression, land use classification, and molecule-protein
interaction prediction. Our results showed that D^3G consistently outperformed
state-of-the-art methods, with an average improvement of 10.6% in performance.
- Abstract(参考訳): テスト分布がトレーニング分布と異なる場合、テスト段階ではモデルのパフォーマンスが低くなることが多いため、分散シフトは機械学習の大きな課題である。
本稿では,モデルがトレーニング対象と異なる新しいドメインに適用された場合に生じる領域シフトに着目し,d^3gと呼ばれる新しいアプローチを提案する。
ドメイン不変の単一モデルを学習しようとする従来のアプローチとは異なり、D^3Gは異なるドメイン間の関係を利用してドメイン固有モデルを学ぶ。
具体的には、D^3Gはトレーニング段階で一連のトレーニングドメイン固有の機能を学び、テスト段階でのドメイン関係に基づいてそれらを重み付けする。
これらのドメイン関係は、固定されたドメインメタデータから直接導出または学習することができる。
軽微な仮定の下では、ドメイン関係を用いて訓練領域固有の関数を重み付けすると平均化よりも強い一般化が得られることが理論的に証明された。
実験により, 温度回帰, 土地利用分類, 分子-タンパク質相互作用予測などのタスクにおいて, 玩具と実世界の両方のデータセットを用いてD^3Gの有効性を評価した。
以上の結果から,D^3Gは平均10.6%の性能向上が得られた。
関連論文リスト
- Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Learning Domain Invariant Representations by Joint Wasserstein Distance
Minimization [3.382067152367334]
トレーニングデータのドメインシフトは、機械学習の実践的応用において一般的である。
理想的には、MLモデルは、例えばドメイン不変表現を学ぶことによって、これらのシフトとは独立して機能するべきです。
一般的なMLの損失は、MLモデルが異なるドメインに対していかに一貫して機能するかを強く保証するものではない。
論文 参考訳(メタデータ) (2021-06-09T09:08:51Z) - Adaptive Methods for Real-World Domain Generalization [32.030688845421594]
本研究では、未確認の試験サンプルからドメイン情報を活用できるかどうかを検討する。
a) 教師なしのトレーニング例から識別的ドメイン埋め込みを最初に学び、b) このドメイン埋め込みを補足的な情報として使ってドメイン適応モデルを構築する。
提案手法は,各種領域一般化ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-29T17:44:35Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。