論文の概要: Invariant and Transportable Representations for Anti-Causal Domain
Shifts
- arxiv url: http://arxiv.org/abs/2207.01603v1
- Date: Mon, 4 Jul 2022 17:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:01:13.922909
- Title: Invariant and Transportable Representations for Anti-Causal Domain
Shifts
- Title(参考訳): 反因果領域シフトの不変性と可輸送表現
- Authors: Yibo Jiang, Victor Veitch
- Abstract要約: 我々は、ドメインの共有因果構造を利用して、不変な予測子を許容し、新しいドメインに迅速に適応できる表現を学ぶ方法を示す。
合成データと実世界のデータの両方を用いた実験により,提案アルゴリズムの有効性が示された。
- 参考スコア(独自算出の注目度): 18.530198688722752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world classification problems must contend with domain shift, the
(potential) mismatch between the domain where a model is deployed and the
domain(s) where the training data was gathered. Methods to handle such problems
must specify what structure is common between the domains and what varies. A
natural assumption is that causal (structural) relationships are invariant in
all domains. Then, it is tempting to learn a predictor for label $Y$ that
depends only on its causal parents. However, many real-world problems are
"anti-causal" in the sense that $Y$ is a cause of the covariates $X$ -- in this
case, $Y$ has no causal parents and the naive causal invariance is useless. In
this paper, we study representation learning under a particular notion of
domain shift that both respects causal invariance and that naturally handles
the "anti-causal" structure. We show how to leverage the shared causal
structure of the domains to learn a representation that both admits an
invariant predictor and that also allows fast adaptation in new domains. The
key is to translate causal assumptions into learning principles that
disentangle "invariant" and "non-stable" features. Experiments on both
synthetic and real-world data demonstrate the effectiveness of the proposed
learning algorithm. Code is available at https://github.com/ybjiaang/ACTIR.
- Abstract(参考訳): 実世界の分類問題は、ドメインシフト、モデルがデプロイされたドメインとトレーニングデータが収集されたドメイン間の(潜在的な)ミスマッチと競合する必要があります。
このような問題に対処するメソッドは、どの構造がドメイン間で共通で何が異なるかを指定する必要がある。
自然な仮定として、因果関係(構造的関係)はすべての領域において不変である。
そして、因果関係の親のみに依存する$y$というラベルの予測子を学ぼうという誘惑がある。
しかし、実世界の多くの問題は、$Y$が共変量$X$の原因であるという意味で「反因果関係」であり、この場合、$Y$は因果親を持たず、素因果不変性は役に立たない。
本稿では,因果的不変性と自然に「反因果的」構造を扱う領域シフトという特定の概念の下での表現学習について検討する。
我々は、不変な予測子と新しい領域での迅速な適応を可能にする表現を学ぶために、ドメインの共有因果構造をどのように活用するかを示す。
鍵となるのは因果仮説を「不変」特徴と「安定でない」特徴を区別する学習原理に変換することである。
合成データと実世界のデータの両方の実験により,提案アルゴリズムの有効性が示された。
コードはhttps://github.com/ybjiaang/actirで入手できる。
関連論文リスト
- Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Variational Counterfactual Prediction under Runtime Domain Corruption [50.89405221574912]
ドメインシフトとアクセス不能変数の同時発生 実行時ドメインの破損は、訓練済みの反事実予測器の一般化を著しく損なう。
我々は,新たな2段階の対向領域適応方式を用いて,VEGANという,対向的に統一された変分因果効果モデルを構築した。
VEGANは、ランタイムドメインの破損の有無で、個々のレベルの処理効果の推定において、他の最先端のベースラインよりも優れていることを実証する。
論文 参考訳(メタデータ) (2023-06-23T02:54:34Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - A Unified Causal View of Domain Invariant Representation Learning [19.197022592928164]
トレーニング対象のドメインと異なるドメインにデプロイされた場合、マシンラーニングメソッドは信頼性が低い。
本稿では,異なる手法が相互にどのように関係し,それぞれの成功を期待する現実的状況を明らかにする。
論文 参考訳(メタデータ) (2022-08-15T03:08:58Z) - Domain-Class Correlation Decomposition for Generalizable Person
Re-Identification [34.813965300584776]
個人の再識別では、ドメインとクラスは相関する。
このドメイン・クラス間の相関関係により、ドメインの敵対的学習はクラスに関する特定の情報を失うことが示される。
我々のモデルは、大規模ドメイン一般化Re-IDベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-29T09:45:03Z) - Learning Domain Invariant Representations by Joint Wasserstein Distance
Minimization [3.382067152367334]
トレーニングデータのドメインシフトは、機械学習の実践的応用において一般的である。
理想的には、MLモデルは、例えばドメイン不変表現を学ぶことによって、これらのシフトとは独立して機能するべきです。
一般的なMLの損失は、MLモデルが異なるドメインに対していかに一貫して機能するかを強く保証するものではない。
論文 参考訳(メタデータ) (2021-06-09T09:08:51Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Heuristic Domain Adaptation [105.59792285047536]
Heuristic Domain Adaptation Network (HDAN)は、ドメイン不変およびドメイン固有表現を明示的に学習する。
Heuristic Domain Adaptation Network (HDAN)は、教師なしDA、マルチソースDA、半教師なしDAの最先端を超越している。
論文 参考訳(メタデータ) (2020-11-30T04:21:35Z) - Automatic Cross-Domain Transfer Learning for Linear Regression [0.0]
本稿では,線形回帰問題に対する伝達学習能力の拡張を支援する。
通常のデータセットでは、移行学習に潜伏したドメイン情報が利用できると仮定する。
論文 参考訳(メタデータ) (2020-05-08T15:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。