論文の概要: Causality Inspired Representation Learning for Domain Generalization
- arxiv url: http://arxiv.org/abs/2203.14237v1
- Date: Sun, 27 Mar 2022 08:08:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:37:04.049901
- Title: Causality Inspired Representation Learning for Domain Generalization
- Title(参考訳): ドメイン一般化のための因果性に基づく表現学習
- Authors: Fangrui Lv, Jian Liang, Shuang Li, Bin Zang, Chi Harold Liu, Ziteng
Wang, Di Liu
- Abstract要約: 本稿では、ドメイン一般化問題を形式化する一般的な構造因果モデルを提案する。
我々の目標は、入力から因果因子を抽出し、不変因果機構を再構築することである。
理想的な因果因子は、非因果的要因から分離され、共同独立であり、分類に十分な因果的要因である。
- 参考スコア(独自算出の注目度): 47.574964496891404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) is essentially an out-of-distribution problem,
aiming to generalize the knowledge learned from multiple source domains to an
unseen target domain. The mainstream is to leverage statistical models to model
the dependence between data and labels, intending to learn representations
independent of domain. Nevertheless, the statistical models are superficial
descriptions of reality since they are only required to model dependence
instead of the intrinsic causal mechanism. When the dependence changes with the
target distribution, the statistic models may fail to generalize. In this
regard, we introduce a general structural causal model to formalize the DG
problem. Specifically, we assume that each input is constructed from a mix of
causal factors (whose relationship with the label is invariant across domains)
and non-causal factors (category-independent), and only the former cause the
classification judgments. Our goal is to extract the causal factors from inputs
and then reconstruct the invariant causal mechanisms. However, the theoretical
idea is far from practical of DG since the required causal/non-causal factors
are unobserved. We highlight that ideal causal factors should meet three basic
properties: separated from the non-causal ones, jointly independent, and
causally sufficient for the classification. Based on that, we propose a
Causality Inspired Representation Learning (CIRL) algorithm that enforces the
representations to satisfy the above properties and then uses them to simulate
the causal factors, which yields improved generalization ability. Extensive
experimental results on several widely used datasets verify the effectiveness
of our approach.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから学習した知識を、目に見えないターゲットドメインに一般化することを目的とした、配布外問題である。
主流は統計モデルを利用してデータとラベル間の依存をモデル化し、ドメインに依存しない表現を学習することである。
それにもかかわらず、統計的モデルは現実の表層的記述であり、それらは内在的因果メカニズムではなく依存のモデルにのみ要求される。
対象分布の依存性が変化すると、統計モデルは一般化に失敗する。
本稿では,DG問題を形式化する一般的な構造因果モデルを提案する。
具体的には、各入力は因果因子(ラベルとの関係はドメイン間で不変)と非因果因子(カテゴリ非依存)の混合から構成され、前者のみが分類判断の原因となると仮定する。
我々の目標は、入力から因果因子を抽出し、不変因果メカニズムを再構築することである。
しかし,dgの理論的考え方は,必須因果/非因果因子が観察できないため,実用的ではない。
理想的な因果因子は、非因果的要因から分離され、共同独立であり、分類に十分な因果的要因である。
そこで本研究では,上記の性質を満たすために表現を強制し,それを用いて因果因子をシミュレートし,一般化能力を向上させる因果性インスパイア表現学習(cirl)アルゴリズムを提案する。
本手法の有効性を検証するために,いくつかのデータセットを用いた大規模実験を行った。
関連論文リスト
- C-Disentanglement: Discovering Causally-Independent Generative Factors
under an Inductive Bias of Confounder [35.09708249850816]
我々は,共同設立者の帰納的バイアスを明示する最初のフレームワークである,C-Disentanglement(C-Disentanglement)というフレームワークを紹介した。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-26T11:44:42Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Adversarially Robust Models may not Transfer Better: Sufficient
Conditions for Domain Transferability from the View of Regularization [17.825841580342715]
機械学習の堅牢性とドメインの一般化は基本的に相関している。
最近の研究では、より堅牢な(逆向きに訓練された)モデルの方がより一般化可能であることが示されている。
彼らの基本的な関係に関する理論的理解が欠如している。
論文 参考訳(メタデータ) (2022-02-03T20:26:27Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。