論文の概要: Neural Causal Abstractions
- arxiv url: http://arxiv.org/abs/2401.02602v2
- Date: Fri, 23 Feb 2024 02:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:41:05.743737
- Title: Neural Causal Abstractions
- Title(参考訳): 神経因果抽象化
- Authors: Kevin Xia, Elias Bareinboim
- Abstract要約: 我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
- 参考スコア(独自算出の注目度): 63.21695740637627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The abilities of humans to understand the world in terms of cause and effect
relationships, as well as to compress information into abstract concepts, are
two hallmark features of human intelligence. These two topics have been studied
in tandem in the literature under the rubric of causal abstractions theory. In
practice, it remains an open problem how to best leverage abstraction theory in
real-world causal inference tasks, where the true mechanisms are unknown and
only limited data is available. In this paper, we develop a new family of
causal abstractions by clustering variables and their domains. This approach
refines and generalizes previous notions of abstractions to better accommodate
individual causal distributions that are spawned by Pearl's causal hierarchy.
We show that such abstractions are learnable in practical settings through
Neural Causal Models (Xia et al., 2021), enabling the use of the deep learning
toolkit to solve various challenging causal inference tasks -- identification,
estimation, sampling -- at different levels of granularity. Finally, we
integrate these results with representation learning to create more flexible
abstractions, moving these results closer to practical applications. Our
experiments support the theory and illustrate how to scale causal inferences to
high-dimensional settings involving image data.
- Abstract(参考訳): 原因と効果の関係から世界を理解する能力と、情報を抽象概念に圧縮する能力は、人間の知性の2つの特徴である。
これら2つのトピックは、因果抽象理論のルーブリックの下で、文献のタンデムで研究されている。
実際には、実際の因果推論タスクにおいて、真のメカニズムが不明で限られたデータしか利用できない抽象理論を最大限に活用する方法は、未解決の問題である。
本稿では,変数とそのドメインをクラスタリングすることで,新たな因果抽象のファミリーを構築する。
このアプローチは、パールの因果階層が生み出す個々の因果分布をよりよく適応するために、従来の抽象概念を洗練・一般化する。
このような抽象化は,神経因果モデル(xia et al., 2021)を通じて実践的な環境で学習可能であることを示し,さまざまな粒度レベルにおいて,さまざまな難解な因果推論タスク - 同定,推定,サンプリング -- を解決するためのディープラーニングツールキットの利用を可能にした。
最後に,これらの結果を表現学習と統合することで,より柔軟な抽象化を実現します。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を説明する。
関連論文リスト
- Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Learning Causal Abstractions of Linear Structural Causal Models [18.132607344833925]
因果抽象化(Causal Abstraction)は、2つの構造因果モデルを異なるレベルの詳細で定式化するフレームワークを提供する。
線形抽象関数を持つ線形因果モデルに対する両問題に対処する。
特にAbs-LiNGAMは,学習された高レベルモデルと抽象関数によって引き起こされる制約を利用して,より大規模な低レベルモデルの回復を高速化する手法である。
論文 参考訳(メタデータ) (2024-06-01T10:42:52Z) - Skews in the Phenomenon Space Hinder Generalization in Text-to-Image Generation [59.138470433237615]
本稿では,関係学習用データセットの言語的スキューと視覚的スクリューの両方を定量化する統計指標を提案する。
系統的に制御されたメトリクスは、一般化性能を強く予測できることを示す。
この研究は、データの多様性やバランスを向上し、絶対的なサイズをスケールアップするための重要な方向を示します。
論文 参考訳(メタデータ) (2024-03-25T03:18:39Z) - Emergence and Causality in Complex Systems: A Survey on Causal Emergence
and Related Quantitative Studies [12.78006421209864]
因果発生理論は出現を定量化するために因果関係の尺度を用いる。
因果の出現を定量化し、データを識別する。
因果表現学習,因果モデル抽象化,世界モデルに基づく強化学習によって,因果表現の出現を識別するアーキテクチャが共有されることを強調した。
論文 参考訳(メタデータ) (2023-12-28T04:20:46Z) - Does Deep Learning Learn to Abstract? A Systematic Probing Framework [69.2366890742283]
抽象化はディープラーニングモデルにとって望ましい機能であり、具体的なインスタンスから抽象概念を誘導し、学習コンテキストを超えて柔軟に適用することを意味する。
本稿では,伝達可能性の観点から,ディープラーニングモデルの抽象化能力を検討するための体系的探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:50:02Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Towards Computing an Optimal Abstraction for Structural Causal Models [16.17846886492361]
我々は抽象学習の問題に焦点をあてる。
我々は,情報損失の具体的な尺度を提案し,その新しい抽象化の学習への貢献について説明する。
論文 参考訳(メタデータ) (2022-08-01T14:35:57Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - A Theory of Abstraction in Reinforcement Learning [18.976500531441346]
この論文では、強化学習における抽象論について述べる。
最初に、抽象化のプロセスを実行する関数に対して、3つのdesiderataを提供します。
次に、エージェントがこれらのデシダータに従って抽象化を学習する方法を明確にする、新しいアルゴリズムと分析のスイートを提示します。
論文 参考訳(メタデータ) (2022-03-01T12:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。