論文の概要: Representation Disentaglement via Regularization by Causal
Identification
- arxiv url: http://arxiv.org/abs/2303.00128v3
- Date: Fri, 26 Jan 2024 18:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 18:47:54.292511
- Title: Representation Disentaglement via Regularization by Causal
Identification
- Title(参考訳): 因果識別による正規化による表現不一致
- Authors: Juan Castorena
- Abstract要約: 本稿では,不整合表現学習における基礎となるデータ生成過程の仮定を記述するために,因果コライダー構造モデルを提案する。
そこで本研究では,大規模生成モデルの挙動を因果同定によって課される絡み合った制約に整合させるモジュール型正規化エンジンReIを提案する。
- 参考スコア(独自算出の注目度): 3.9160947065896803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose the use of a causal collider structured model to
describe the underlying data generative process assumptions in disentangled
representation learning. This extends the conventional i.i.d. factorization
assumption model $p(\mathbf{y}) = \prod_{i} p(\mathbf{y}_i )$, inadequate to
handle learning from biased datasets (e.g., with sampling selection bias). The
collider structure, explains that conditional dependencies between the
underlying generating variables may be exist, even when these are in reality
unrelated, complicating disentanglement. Under the rubric of causal inference,
we show this issue can be reconciled under the condition of causal
identification; attainable from data and a combination of constraints, aimed at
controlling the dependencies characteristic of the \textit{collider} model. For
this, we propose regularization by identification (ReI), a modular
regularization engine designed to align the behavior of large scale generative
models with the disentanglement constraints imposed by causal identification.
Empirical evidence on standard benchmarks demonstrates the superiority of ReI
in learning disentangled representations in a variational framework. In a
real-world dataset we additionally show that our framework, results in
interpretable representations robust to out-of-distribution examples and that
align with the true expected effect from domain knowledge.
- Abstract(参考訳): 本研究では,不等角表現学習におけるデータ生成過程の仮定を記述するために,因果衝突型構造モデルを提案する。
これは従来の因子分解仮定モデル $p(\mathbf{y}) = \prod_{i} p(\mathbf{y}_i )$ を拡張し、偏りのあるデータセット(例えばサンプリング選択バイアス)からの学習を扱うには不十分である。
衝突型加速器の構造は、基底となる生成変数間の条件付き依存性が、実際には無関係であっても存在しうることを説明している。
因果的推論のルーリックの下では、この問題は因果的同定の条件の下で、データと制約の組み合わせから得ることが可能であり、 \textit{collider} モデルの依存性特性を制御することを目的とした。
そこで本研究では,大規模生成モデルの挙動を因果同定によって課される絡み合った制約に整合させるモジュール型正規化エンジンReIを提案する。
標準ベンチマークに関する実証的な証拠は、変分フレームワークにおける非絡み合い表現の学習におけるReIの優位性を示している。
さらに、現実世界のデータセットでは、私たちのフレームワークは、分散の例にロバストな解釈可能な表現となり、ドメイン知識から期待できる真の効果と一致することを示します。
関連論文リスト
- Generalized Criterion for Identifiability of Additive Noise Models Using Majorization [7.448620208767376]
本稿では,有向非巡回グラフ(DAG)モデルに対する新しい識別可能性基準を提案する。
この基準が既存の識別可能性基準を拡張し、一般化することを実証する。
本稿では,変数のトポロジ的順序付けを学習するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-08T02:18:57Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Causal Discovery in Linear Latent Variable Models Subject to Measurement
Error [29.78435955758185]
線形系における測定誤差の存在下での因果発見に着目した。
我々は、この問題と因果発見の驚くべき関連性を、観察されていない親性原因の存在で示している。
論文 参考訳(メタデータ) (2022-11-08T03:43:14Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。