論文の概要: Causal Abstraction Inference under Lossy Representations
- arxiv url: http://arxiv.org/abs/2509.21607v1
- Date: Thu, 25 Sep 2025 21:20:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.027307
- Title: Causal Abstraction Inference under Lossy Representations
- Title(参考訳): 損失表現に基づく因果抽象推論
- Authors: Kevin Xia, Elias Bareinboim,
- Abstract要約: 我々は、既存の定義を一般化して損失表現に適合させる、投影抽象化と呼ばれる新しいタイプの抽象化を導入する。
低レベルモデルから投影された抽象化を構築する方法と、それと等価な観察的、介入的、および反ファクト的因果クエリを低レベルから高レベルに翻訳する方法を示す。
- 参考スコア(独自算出の注目度): 53.18851962820361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study of causal abstractions bridges two integral components of human intelligence: the ability to determine cause and effect, and the ability to interpret complex patterns into abstract concepts. Formally, causal abstraction frameworks define connections between complicated low-level causal models and simple high-level ones. One major limitation of most existing definitions is that they are not well-defined when considering lossy abstraction functions in which multiple low-level interventions can have different effects while mapping to the same high-level intervention (an assumption called the abstract invariance condition). In this paper, we introduce a new type of abstractions called projected abstractions that generalize existing definitions to accommodate lossy representations. We show how to construct a projected abstraction from the low-level model and how it translates equivalent observational, interventional, and counterfactual causal queries from low to high-level. Given that the true model is rarely available in practice we prove a new graphical criteria for identifying and estimating high-level causal queries from limited low-level data. Finally, we experimentally show the effectiveness of projected abstraction models in high-dimensional image settings.
- Abstract(参考訳): 因果的抽象の研究は、人間の知性の2つの不可欠な構成要素、原因と効果を決定できる能力、複雑なパターンを抽象的な概念に解釈する能力、を橋渡しする。
形式的には、因果抽象化フレームワークは複雑な低レベルの因果モデルと単純な高レベルの因果関係を定義します。
既存の多くの定義の大きな制限の一つは、複数の低レベルの介入が同じ高レベルの介入(抽象不変条件と呼ばれる仮定)にマッピングしながら異なる効果を持つことができるような損失の少ない抽象関数を考えると、それらが十分に定義されていないことである。
本稿では、既存の定義を一般化して損失表現に適合させる、射影抽象化と呼ばれる新しいタイプの抽象化を導入する。
低レベルモデルから投影された抽象化を構築する方法と、それと等価な観察的、介入的、および反ファクト的因果クエリを低レベルから高レベルに翻訳する方法を示す。
真のモデルが実際に利用できることは滅多にないので、限られた低レベルデータから高レベルの因果クエリを識別し、推定するための新しいグラフィカルな基準を証明します。
最後に,高次元画像設定における投影抽象モデルの有効性を実験的に示す。
関連論文リスト
- Learning Causal Abstractions of Linear Structural Causal Models [18.132607344833925]
因果抽象化(Causal Abstraction)は、2つの構造因果モデルを異なるレベルの詳細で定式化するフレームワークを提供する。
線形抽象関数を持つ線形因果モデルに対する両問題に対処する。
特にAbs-LiNGAMは,学習された高レベルモデルと抽象関数によって引き起こされる制約を利用して,より大規模な低レベルモデルの回復を高速化する手法である。
論文 参考訳(メタデータ) (2024-06-01T10:42:52Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - Finding Alignments Between Interpretable Causal Variables and
Distributed Neural Representations [62.65877150123775]
因果抽象化は、説明可能な人工知能のための有望な理論的枠組みである。
既存の因果抽象法では、高レベルモデルと低レベルモデルの間のアライメントをブルートフォースで探索する必要がある。
これらの制約を克服する分散アライメントサーチ(DAS)を提案する。
論文 参考訳(メタデータ) (2023-03-05T00:57:49Z) - Does Deep Learning Learn to Abstract? A Systematic Probing Framework [69.2366890742283]
抽象化はディープラーニングモデルにとって望ましい機能であり、具体的なインスタンスから抽象概念を誘導し、学習コンテキストを超えて柔軟に適用することを意味する。
本稿では,伝達可能性の観点から,ディープラーニングモデルの抽象化能力を検討するための体系的探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:50:02Z) - Causal Abstraction: A Theoretical Foundation for Mechanistic Interpretability [30.76910454663951]
因果抽象化は機械的解釈可能性の理論的基盤を提供する。
我々の貢献は、メカニズム置換から任意のメカニズム変換への因果的抽象化の理論の一般化である。
論文 参考訳(メタデータ) (2023-01-11T20:42:41Z) - Towards Computing an Optimal Abstraction for Structural Causal Models [16.17846886492361]
我々は抽象学習の問題に焦点をあてる。
我々は,情報損失の具体的な尺度を提案し,その新しい抽象化の学習への貢献について説明する。
論文 参考訳(メタデータ) (2022-08-01T14:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。