論文の概要: Improving Domain Generalization with Domain Relations
- arxiv url: http://arxiv.org/abs/2302.02609v2
- Date: Sat, 16 Mar 2024 19:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 06:48:15.871783
- Title: Improving Domain Generalization with Domain Relations
- Title(参考訳): ドメイン関係によるドメインの一般化の改善
- Authors: Huaxiu Yao, Xinyu Yang, Xinyi Pan, Shengchao Liu, Pang Wei Koh, Chelsea Finn,
- Abstract要約: 本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
- 参考スコア(独自算出の注目度): 77.63345406973097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution shift presents a significant challenge in machine learning, where models often underperform during the test stage when faced with a different distribution than the one they were trained on. This paper focuses on domain shifts, which occur when the model is applied to new domains that are different from the ones it was trained on, and propose a new approach called D$^3$G. Unlike previous methods that aim to learn a single model that is domain invariant, D$^3$G leverages domain similarities based on domain metadata to learn domain-specific models. Concretely, D$^3$G learns a set of training-domain-specific functions during the training stage and reweights them based on domain relations during the test stage. These domain relations can be directly obtained and learned from domain metadata. Under mild assumptions, we theoretically prove that using domain relations to reweight training-domain-specific functions achieves stronger out-of-domain generalization compared to the conventional averaging approach. Empirically, we evaluate the effectiveness of D$^3$G using real-world datasets for tasks such as temperature regression, land use classification, and molecule-protein binding affinity prediction. Our results show that D$^3$G consistently outperforms state-of-the-art methods.
- Abstract(参考訳): 分散シフトは機械学習において重要な課題であり、トレーニングされたモデルとは異なるディストリビューションに直面した場合、テスト段階でモデルのパフォーマンスが低下することが多い。
本稿では、トレーニングしたドメインとは異なる新しいドメインにモデルを適用する際に発生するドメインシフトに注目し、D$^3$Gという新しいアプローチを提案する。
ドメイン不変の単一モデルを学習しようとする従来の方法とは異なり、D$^3$Gはドメインメタデータに基づいたドメイン類似性を活用してドメイン固有モデルを学習する。
具体的には、D$3$Gはトレーニング段階で訓練ドメイン固有の関数の集合を学習し、テスト段階でのドメイン関係に基づいてそれらを重み付けする。
これらのドメイン関係は、ドメインメタデータから直接取得し、学習することができる。
軽微な仮定の下では、ドメイン関係を用いて訓練領域固有の関数を重み付けすると、従来の平均化手法と比較してドメイン外一般化がより強くなることを理論的に証明する。
温度回帰,土地利用分類,分子結合親和性予測などのタスクに対して,実世界のデータセットを用いてD$^3$Gの有効性を実証的に評価した。
以上の結果から,D$^3$Gは最先端の手法より一貫して優れていた。
関連論文リスト
- Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Learning Domain Invariant Representations by Joint Wasserstein Distance
Minimization [3.382067152367334]
トレーニングデータのドメインシフトは、機械学習の実践的応用において一般的である。
理想的には、MLモデルは、例えばドメイン不変表現を学ぶことによって、これらのシフトとは独立して機能するべきです。
一般的なMLの損失は、MLモデルが異なるドメインに対していかに一貫して機能するかを強く保証するものではない。
論文 参考訳(メタデータ) (2021-06-09T09:08:51Z) - Adaptive Methods for Real-World Domain Generalization [32.030688845421594]
本研究では、未確認の試験サンプルからドメイン情報を活用できるかどうかを検討する。
a) 教師なしのトレーニング例から識別的ドメイン埋め込みを最初に学び、b) このドメイン埋め込みを補足的な情報として使ってドメイン適応モデルを構築する。
提案手法は,各種領域一般化ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-29T17:44:35Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。