論文の概要: On Measuring Intrinsic Causal Attributions in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2505.09660v1
- Date: Wed, 14 May 2025 12:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.043329
- Title: On Measuring Intrinsic Causal Attributions in Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークにおける固有因果属性の測定について
- Authors: Saptarshi Saha, Dhruv Vansraj Rathore, Soumadeep Saha, Utpal Garain, David Doermann,
- Abstract要約: 本研究は、NNを構造因果モデル(SCM)として扱い、本質因果モデル(ICC)に焦点をあてる。
人工および実世界のデータセットに関する実験により、ICCはより直感的で信頼性の高い説明を生成することが示された。
- 参考スコア(独自算出の注目度): 1.4330510916280879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantifying the causal influence of input features within neural networks has become a topic of increasing interest. Existing approaches typically assess direct, indirect, and total causal effects. This work treats NNs as structural causal models (SCMs) and extends our focus to include intrinsic causal contributions (ICC). We propose an identifiable generative post-hoc framework for quantifying ICC. We also draw a relationship between ICC and Sobol' indices. Our experiments on synthetic and real-world datasets demonstrate that ICC generates more intuitive and reliable explanations compared to existing global explanation techniques.
- Abstract(参考訳): ニューラルネットワークにおける入力特徴の因果影響の定量化は、関心の高まりのトピックとなっている。
既存のアプローチは通常、直接的、間接的、そして完全な因果効果を評価する。
本研究は、NNを構造因果モデル(SCM)として扱い、本質因果モデル(ICC)に焦点をあてる。
我々はICCの定量化のための同定可能なポストホックフレームワークを提案する。
また、ICCとSobolの指標の関係も描いている。
人工および実世界のデータセットを用いた実験により、ICCは既存のグローバルな説明手法よりも直感的で信頼性の高い説明を生成することが示された。
関連論文リスト
- Learning Identifiable Structures Helps Avoid Bias in DNN-based Supervised Causal Learning [56.22841701016295]
Supervised Causal Learning (SCL)はこの分野で新興パラダイムである。
既存のディープニューラルネットワーク(DNN)ベースの手法では、"Node-Edgeアプローチ"が一般的である。
論文 参考訳(メタデータ) (2025-02-15T19:10:35Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Towards Learning and Explaining Indirect Causal Effects in Neural
Networks [22.658383399117003]
NNを構造因果モデル(Structuor causal model, SCM)とみなし、入力ニューロン間にフィードフォワード接続を導入することで間接因果効果を含むように焦点を絞る。
NNモデルトレーニング中の直接的・間接的・総因果効果を捕捉・維持するアンテホック法を提案する。
また,NNモデルにおける学習因果効果の定量化アルゴリズムと,高次元データにおける因果効果の定量化のための効率的な近似手法を提案する。
論文 参考訳(メタデータ) (2023-03-24T08:17:31Z) - Hierarchical Graph Neural Networks for Causal Discovery and Root Cause
Localization [52.72490784720227]
REASONはTopological Causal DiscoveryとPersonal Causal Discoveryで構成されている。
Topological Causal Discoveryコンポーネントは、根本原因を辿るために断層伝播をモデル化することを目的としている。
個々の因果発見コンポーネントは、単一のシステムエンティティの突然の変化パターンのキャプチャに重点を置いている。
論文 参考訳(メタデータ) (2023-02-03T20:17:45Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z) - Relating Graph Neural Networks to Structural Causal Models [17.276657786213015]
因果関係は、興味のある変数とその力学関係に関する情報を伝達する構造因果モデル(SCM)によって記述することができる。
本稿では,GNNとSCMの新たな接続を確立する理論解析について述べる。
次に、GNNに基づく因果推論のための新しいモデルクラスを構築し、因果効果の同定に十分である。
論文 参考訳(メタデータ) (2021-09-09T11:16:31Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。