論文の概要: The Causal Abstraction Network: Theory and Learning
- arxiv url: http://arxiv.org/abs/2509.25236v1
- Date: Thu, 25 Sep 2025 07:48:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.187273
- Title: The Causal Abstraction Network: Theory and Learning
- Title(参考訳): 因果抽象化ネットワーク:理論と学習
- Authors: Gabriele D'Acunto, Paolo Di Lorenzo, Sergio Barbarossa,
- Abstract要約: 因果的人工知能は、構造因果モデル(SCM)を活用することにより、AIの説明可能性、堅牢性、信頼性を高めることを目的としている。
近年の進歩は因果知識のネットワーク層を形式化している。
因果抽象ネットワーク (CAN) は, (i) がガウスであり, (ii) 写像が構成的線形抽象の転置であるようなせん断の具体例である。
- 参考スコア(独自算出の注目度): 14.952578725545344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal artificial intelligence aims to enhance explainability, trustworthiness, and robustness in AI by leveraging structural causal models (SCMs). In this pursuit, recent advances formalize network sheaves of causal knowledge. Pushing in the same direction, we introduce the causal abstraction network (CAN), a specific instance of such sheaves where (i) SCMs are Gaussian, (ii) restriction maps are transposes of constructive linear causal abstractions (CAs), and (iii) edge stalks correspond -- up to rotation -- to the node stalks of more detailed SCMs. We investigate the theoretical properties of CAN, including algebraic invariants, cohomology, consistency, global sections characterized via the Laplacian kernel, and smoothness. We then tackle the learning of consistent CANs. Our problem formulation separates into edge-specific local Riemannian problems and avoids nonconvex, costly objectives. We propose an efficient search procedure as a solution, solving the local problems with SPECTRAL, our iterative method with closed-form updates and suitable for positive definite and semidefinite covariance matrices. Experiments on synthetic data show competitive performance in the CA learning task, and successful recovery of diverse CAN structures.
- Abstract(参考訳): 因果人工知能は、構造因果モデル(SCM)を活用することにより、AIの説明可能性、信頼性、堅牢性を高めることを目的としている。
この追求において、近年の進歩は因果知識のネットワークシーブを形式化する。
同じ方向に進むと、そのようなシーブの特定の例である因果抽象ネットワーク(CAN)を導入する。
(i)SCMはガウス系である。
(ii)制限写像は、構成線形因果抽象(CA)の変換であり、
(iii)エッジストークは、より詳細なSCMのノードストークに対応している(回転まで)。
代数不変量、コホモロジー、一貫性、ラプラシア核によって特徴づけられる大域的部分、滑らかさを含むCANの理論的性質について検討する。
そして、一貫性のあるCANの学習に取り組む。
我々の問題定式化は、エッジ固有の局所リーマン問題に分離し、非凸でコストのかかる目的を避ける。
提案手法は,正定値および半定値の共分散行列に適合し,クローズドフォーム更新を伴う反復法であるSPECTRALを用いて局所的な問題を解き,効率的な探索手順を提案する。
合成データを用いた実験は、CA学習課題における競争性能を示し、多様なCAN構造の回復に成功した。
関連論文リスト
- The Relativity of Causal Knowledge [4.051523221722475]
人工知能の最近の進歩は、純粋に予測可能なシステムの限界を明らかにし、因果的および協調的推論へのシフトを要求する。
本稿では、構造因果モデル(SCM)が本質的に不完全であり、関係ネットワークに埋め込まれた主観的表現であることを示す因果知識の相対性について紹介する。
論文 参考訳(メタデータ) (2025-03-13T16:24:48Z) - Causal Abstraction Learning based on the Semantic Embedding Principle [8.867171632530908]
構造因果モデル(SCM)により,複数の解像度で複雑なシステムを調べることができる。
本稿では,低次測度と高次測度の間の準同型を見出すことにより,CAの学習を可能にするSCMに対するカテゴリー論的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-01T11:54:44Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Causal Optimal Transport of Abstractions [8.642152250082368]
因果抽象化(CA)理論は、複数の構造因果モデル(SCM)を異なるレベルの粒度で関連付けるための公式な基準を確立する。
基礎となるSCMの完全な知識を前提とせずに、観測データや介入データから抽象地図を学習する最初の方法であるCOTAを提案する。
合成および実世界の問題に対してCOTAを広範囲に評価し,非因果的・独立的・集合的COTA定式化に対するCOTAの優位性を示す。
論文 参考訳(メタデータ) (2023-12-13T12:54:34Z) - Structure Learning and Parameter Estimation for Graphical Models via
Penalized Maximum Likelihood Methods [0.0]
論文では、静的なベイジアンネットワーク(BN)と、その名前が示すように時間成分を持つ連続時間ベイジアンネットワークという2つの異なるタイプのPGMについて考察する。
私たちは、PGMを学ぶための最初のステップである、真の構造を回復することに興味を持っています。
論文 参考訳(メタデータ) (2023-01-30T20:26:13Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。