論文の概要: Causal and Compositional Abstraction
- arxiv url: http://arxiv.org/abs/2602.16612v1
- Date: Wed, 18 Feb 2026 17:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.662748
- Title: Causal and Compositional Abstraction
- Title(参考訳): 因果的・構成的抽象化
- Authors: Robin Lorenz, Sean Tull,
- Abstract要約: 自然変換として,低次モデルと高次モデル間の抽象化について概説する。
これは因果的抽象の新たな形式化を提供し、文学におけるいくつかの概念を統一する。
より複雑な構成モデルに抽象化を一般化できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstracting from a low level to a more explanatory high level of description, and ideally while preserving causal structure, is fundamental to scientific practice, to causal inference problems, and to robust, efficient and interpretable AI. We present a general account of abstractions between low and high level models as natural transformations, focusing on the case of causal models. This provides a new formalisation of causal abstraction, unifying several notions in the literature, including constructive causal abstraction, Q-$τ$ consistency, abstractions based on interchange interventions, and `distributed' causal abstractions. Our approach is formalised in terms of category theory, and uses the general notion of a compositional model with a given set of queries and semantics in a monoidal, cd- or Markov category; causal models and their queries such as interventions being special cases. We identify two basic notions of abstraction: downward abstractions mapping queries from high to low level; and upward abstractions, mapping concrete queries such as Do-interventions from low to high. Although usually presented as the latter, we show how common causal abstractions may, more fundamentally, be understood in terms of the former. Our approach also leads us to consider a new stronger notion of `component-level' abstraction, applying to the individual components of a model. In particular, this yields a novel, strengthened form of constructive causal abstraction at the mechanism-level, for which we prove characterisation results. Finally, we show that abstraction can be generalised to further compositional models, including those with a quantum semantics implemented by quantum circuits, and we take first steps in exploring abstractions between quantum compositional circuit models and high-level classical causal models as a means to explainable quantum AI.
- Abstract(参考訳): 低レベルからより説明的な高レベルな記述への抽象化、そして理想的には因果構造を保存することは、科学的な実践、因果推論の問題、堅牢で効率的で解釈可能なAIに基本である。
本稿では,低次モデルと高次モデルの間の抽象化を自然変換として概説し,因果モデルの場合に焦点をあてる。
コンストラクティブ因果抽象化、Q-$τ$一貫性、相互干渉に基づく抽象化、'分散'因果抽象化などである。
我々のアプローチは圏論の観点で定式化され、モノイド、cd-またはマルコフ圏における与えられたクエリとセマンティクスの集合を持つ合成モデルの一般的な概念を用いる。
本稿では,下方から下方への抽象化と,上方への抽象化,Do-インターベンションのような具体的なクエリを下方から高方へマッピングする,という2つの基本概念を同定する。
通常後者として表されるが、より根本的には、いかに共通因果抽象が前者の観点から理解されるかを示す。
アプローチはまた、モデルの個々のコンポーネントに適用して、"コンポーネントレベル"の抽象化というより強力な概念も考えさせます。
特に、これは構造的因果抽象の機構レベルでの新規で強化された形式をもたらし、それによって特徴付け結果が証明される。
最後に、量子回路によって実装された量子セマンティクスを含む、さらなる構成モデルに抽象化を一般化できることを示し、量子合成回路モデルと高レベルの古典因果モデルの間の抽象化を説明可能な量子AIの手段として探求する第一歩を踏み出した。
関連論文リスト
- Causal Abstractions, Categorically Unified [9.341830361844337]
異なる抽象レベルで同じシステムを表す因果関係モデルを関連付けるための分類的枠組みを提案する。
我々のアプローチは、これまで考慮されていた因果的抽象化を統一し、一般化する。
本稿では,回路解析やスパースオートエンコーダなどの機械的解釈可能性からの手法をフレームワークに適合させる方法について論じる。
論文 参考訳(メタデータ) (2025-10-06T17:09:30Z) - Causal Abstraction Inference under Lossy Representations [53.18851962820361]
我々は、既存の定義を一般化して損失表現に適合させる、投影抽象化と呼ばれる新しいタイプの抽象化を導入する。
低レベルモデルから投影された抽象化を構築する方法と、それと等価な観察的、介入的、および反ファクト的因果クエリを低レベルから高レベルに翻訳する方法を示す。
論文 参考訳(メタデータ) (2025-09-25T21:20:42Z) - Learning Causal Abstractions of Linear Structural Causal Models [18.132607344833925]
因果抽象化(Causal Abstraction)は、2つの構造因果モデルを異なるレベルの詳細で定式化するフレームワークを提供する。
線形抽象関数を持つ線形因果モデルに対する両問題に対処する。
特にAbs-LiNGAMは,学習された高レベルモデルと抽象関数によって引き起こされる制約を利用して,より大規模な低レベルモデルの回復を高速化する手法である。
論文 参考訳(メタデータ) (2024-06-01T10:42:52Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - Finding Alignments Between Interpretable Causal Variables and
Distributed Neural Representations [62.65877150123775]
因果抽象化は、説明可能な人工知能のための有望な理論的枠組みである。
既存の因果抽象法では、高レベルモデルと低レベルモデルの間のアライメントをブルートフォースで探索する必要がある。
これらの制約を克服する分散アライメントサーチ(DAS)を提案する。
論文 参考訳(メタデータ) (2023-03-05T00:57:49Z) - Does Deep Learning Learn to Abstract? A Systematic Probing Framework [69.2366890742283]
抽象化はディープラーニングモデルにとって望ましい機能であり、具体的なインスタンスから抽象概念を誘導し、学習コンテキストを超えて柔軟に適用することを意味する。
本稿では,伝達可能性の観点から,ディープラーニングモデルの抽象化能力を検討するための体系的探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:50:02Z) - Causal Abstraction: A Theoretical Foundation for Mechanistic Interpretability [30.76910454663951]
因果抽象化は機械的解釈可能性の理論的基盤を提供する。
我々の貢献は、メカニズム置換から任意のメカニズム変換への因果的抽象化の理論の一般化である。
論文 参考訳(メタデータ) (2023-01-11T20:42:41Z) - Towards Computing an Optimal Abstraction for Structural Causal Models [16.17846886492361]
我々は抽象学習の問題に焦点をあてる。
我々は,情報損失の具体的な尺度を提案し,その新しい抽象化の学習への貢献について説明する。
論文 参考訳(メタデータ) (2022-08-01T14:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。