論文の概要: Learning Consistent Causal Abstraction Networks
- arxiv url: http://arxiv.org/abs/2602.02623v1
- Date: Mon, 02 Feb 2026 16:16:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:14.988532
- Title: Learning Consistent Causal Abstraction Networks
- Title(参考訳): 一貫性のある因果抽象化ネットワークの学習
- Authors: Gabriele D'Acunto, Paolo Di Lorenzo, Sergio Barbarossa,
- Abstract要約: 因果的人工知能は、構造因果モデル(SCM)を活用することにより、AIの説明可能性、堅牢性、信頼性を高めることを目的としている。
我々は一貫した抽象ネットワーク(CAN)に取り組む。
実験では、合成データの競合学習と多様なCAN構造の回復に成功した。
- 参考スコア(独自算出の注目度): 14.952578725545344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal artificial intelligence aims to enhance explainability, trustworthiness, and robustness in AI by leveraging structural causal models (SCMs). In this pursuit, recent advances formalize network sheaves and cosheaves of causal knowledge. Pushing in the same direction, we tackle the learning of consistent causal abstraction network (CAN), a sheaf-theoretic framework where (i) SCMs are Gaussian, (ii) restriction maps are transposes of constructive linear causal abstractions (CAs) adhering to the semantic embedding principle, and (iii) edge stalks correspond--up to permutation--to the node stalks of more detailed SCMs. Our problem formulation separates into edge-specific local Riemannian problems and avoids nonconvex objectives. We propose an efficient search procedure, solving the local problems with SPECTRAL, our iterative method with closed-form updates and suitable for positive definite and semidefinite covariance matrices. Experiments on synthetic data show competitive performance in the CA learning task, and successful recovery of diverse CAN structures.
- Abstract(参考訳): 因果人工知能は、構造因果モデル(SCM)を活用することにより、AIの説明可能性、信頼性、堅牢性を高めることを目的としている。
この追求において、近年の進歩はネットワークシーブと因果知識のコシーブを形式化する。
同じ方向に進むことで、一貫した因果抽象ネットワーク(CAN)の学習に取り組む。
(i)SCMはガウス系である。
(ii)制限写像は、意味的埋め込み原理に固執する構成的線形因果抽象(CA)の変換であり、
(iii)エッジストークは、より詳細なSCMのノードストークに対応している。
我々の問題定式化は、エッジ固有の局所リーマン問題に分離し、非凸目標を避ける。
本稿では,クローズドフォーム更新を用いた反復法であるSPECTRALによる局所的な問題の解法として,正定値および半定値の共分散行列に適した効率的な探索手法を提案する。
合成データを用いた実験は、CA学習課題における競争性能を示し、多様なCAN構造の回復に成功した。
関連論文リスト
- CoT-Seg: Rethinking Segmentation with Chain-of-Thought Reasoning and Self-Correction [50.67483317563736]
本稿では,段階的に考察し,必要な情報を検索し,結果を生成し,自己評価を行い,結果を洗練するシステムを提案する。
CoT-Segは、思考の連鎖推論と自己補正を組み合わせることで、推論セグメンテーションを再考する、トレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2026-01-24T11:41:54Z) - The Causal Abstraction Network: Theory and Learning [14.952578725545344]
因果的人工知能は、構造因果モデル(SCM)を活用することにより、AIの説明可能性、堅牢性、信頼性を高めることを目的としている。
近年の進歩は因果知識のネットワーク層を形式化している。
因果抽象ネットワーク (CAN) は, (i) がガウスであり, (ii) 写像が構成的線形抽象の転置であるようなせん断の具体例である。
論文 参考訳(メタデータ) (2025-09-25T07:48:25Z) - Causal Abstraction Learning based on the Semantic Embedding Principle [8.867171632530908]
構造因果モデル(SCM)により,複数の解像度で複雑なシステムを調べることができる。
本稿では,低次測度と高次測度の間の準同型を見出すことにより,CAの学習を可能にするSCMに対するカテゴリー論的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-01T11:54:44Z) - Causal Order Discovery based on Monotonic SCMs [5.47587439763942]
本稿では,根変数を反復的に検出することで因果順序を直接同定する新しいシーケンシャル手順を提案する。
この方法では、スパーシティ仮定と関連する最適化課題が不要になる。
本稿では,ルート変数の逐次探索におけるアプローチの有効性を,ヤコビアン空間を最大化する手法と比較する。
論文 参考訳(メタデータ) (2024-10-24T03:15:11Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Causal Optimal Transport of Abstractions [8.642152250082368]
因果抽象化(CA)理論は、複数の構造因果モデル(SCM)を異なるレベルの粒度で関連付けるための公式な基準を確立する。
基礎となるSCMの完全な知識を前提とせずに、観測データや介入データから抽象地図を学習する最初の方法であるCOTAを提案する。
合成および実世界の問題に対してCOTAを広範囲に評価し,非因果的・独立的・集合的COTA定式化に対するCOTAの優位性を示す。
論文 参考訳(メタデータ) (2023-12-13T12:54:34Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。