論文の概要: Domain Generalization via Domain-based Covariance Minimization
- arxiv url: http://arxiv.org/abs/2110.06298v1
- Date: Tue, 12 Oct 2021 19:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 13:36:50.645072
- Title: Domain Generalization via Domain-based Covariance Minimization
- Title(参考訳): ドメインベース共分散最小化による領域一般化
- Authors: Anqi Wu
- Abstract要約: 本稿では,領域間の条件分布の差を最小限に抑えるために,複数の領域に対する新しい分散測定法を提案する。
小規模なデータセットでは、未確認のテストデータセットよりも優れた一般化性能を示す、より良い定量的結果が得られることを示す。
- 参考スコア(独自算出の注目度): 4.414778226415752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers have been facing a difficult problem that data generation
mechanisms could be influenced by internal or external factors leading to the
training and test data with quite different distributions, consequently
traditional classification or regression from the training set is unable to
achieve satisfying results on test data. In this paper, we address this
nontrivial domain generalization problem by finding a central subspace in which
domain-based covariance is minimized while the functional relationship is
simultaneously maximally preserved. We propose a novel variance measurement for
multiple domains so as to minimize the difference between conditional
distributions across domains with solid theoretical demonstration and supports,
meanwhile, the algorithm preserves the functional relationship via maximizing
the variance of conditional expectations given output. Furthermore, we also
provide a fast implementation that requires much less computation and smaller
memory for large-scale matrix operations, suitable for not only domain
generalization but also other kernel-based eigenvalue decompositions. To show
the practicality of the proposed method, we compare our methods against some
well-known dimension reduction and domain generalization techniques on both
synthetic data and real-world applications. We show that for small-scale
datasets, we are able to achieve better quantitative results indicating better
generalization performance over unseen test datasets. For large-scale problems,
the proposed fast implementation maintains the quantitative performance but at
a substantially lower computational cost.
- Abstract(参考訳): 研究者は、データ生成メカニズムが、非常に異なる分布のトレーニングデータやテストデータにつながる内部的または外部的な要因に影響される可能性があるという困難な問題に直面しており、その結果、伝統的な分類やトレーニングセットからの回帰は、テストデータで満足のいく結果を達成することができない。
本稿では, この非自明な領域一般化問題に対して, 関数関係を最大保存しつつ, 領域ベース共分散を最小化する中心部分空間を求める。
本研究では,複数の領域における条件分布の差を最小限に抑えるための新しい分散測定法を提案し,その一方で,与えられた条件分布の分散を最大化して機能的関係を保っている。
さらに,大規模行列演算において計算量が少なく,メモリも小さく,ドメインの一般化だけでなく,カーネルベースの固有値分解にも適する高速な実装も提供する。
提案手法の実用性を示すため,合成データと実世界の双方でよく知られた次元縮小法と領域一般化法を比較した。
小規模データセットでは,未取得のテストデータセットよりも一般化性能が向上することを示す定量的な結果が得られている。
大規模問題に対して提案した高速実装は定量的性能を維持するが、計算コストはかなり低い。
関連論文リスト
- FAIRM: Learning invariant representations for algorithmic fairness and domain generalization with minimax optimality [15.71499916304475]
本研究では,多様性型条件下でのフェアネスと領域一般化特性が望ましい学習環境に基づくオラクルFAIRMを提案する。
線形モデルでFAIRMを実現するための効率的なアルゴリズムを開発し、最小限の最適化で漸近的性能を示す。
論文 参考訳(メタデータ) (2024-04-02T03:06:25Z) - Domain-aware Triplet loss in Domain Generalization [0.0]
ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
論文 参考訳(メタデータ) (2023-03-01T14:02:01Z) - Constrained Maximum Cross-Domain Likelihood for Domain Generalization [14.91361835243516]
ドメインの一般化は、複数のソースドメイン上で一般化可能なモデルを学ぶことを目的としている。
本稿では,異なる領域の後方分布間のKL偏差を最小限に抑える新しい領域一般化法を提案する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットの実験は、我々のメソッドの優れたパフォーマンスを強調している。
論文 参考訳(メタデータ) (2022-10-09T03:41:02Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - Learning Domain Invariant Representations by Joint Wasserstein Distance
Minimization [3.382067152367334]
トレーニングデータのドメインシフトは、機械学習の実践的応用において一般的である。
理想的には、MLモデルは、例えばドメイン不変表現を学ぶことによって、これらのシフトとは独立して機能するべきです。
一般的なMLの損失は、MLモデルが異なるドメインに対していかに一貫して機能するかを強く保証するものではない。
論文 参考訳(メタデータ) (2021-06-09T09:08:51Z) - SelfReg: Self-supervised Contrastive Regularization for Domain
Generalization [7.512471799525974]
対照的学習,自己教師付きコントラスト正規化(SelfReg)に基づく領域一般化のための新しい正規化手法を提案する。
提案手法は正のデータペアのみを用いるため,負のペアサンプリングによって生じる様々な問題を解消する。
最近のベンチマークであるDomainBedでは、提案手法は従来の最先端技術に匹敵する性能を示している。
論文 参考訳(メタデータ) (2021-04-20T09:08:29Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z) - Domain Adaptation: Learning Bounds and Algorithms [80.85426994513541]
本稿では,任意の損失関数を持つ適応問題に適した分布距離,差分距離を新たに導入する。
広い損失関数族に対する領域適応のための新しい一般化境界を導出する。
また、正規化に基づくアルゴリズムの大規模クラスに対する新しい適応境界も提示する。
論文 参考訳(メタデータ) (2009-02-19T18:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。