論文の概要: Structural Causal Interpretation Theorem
- arxiv url: http://arxiv.org/abs/2110.02395v1
- Date: Tue, 5 Oct 2021 22:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:20:44.335474
- Title: Structural Causal Interpretation Theorem
- Title(参考訳): 構造因果解釈定理
- Authors: Matej Ze\v{c}evi\'c and Devendra Singh Dhami and Constantin A.
Rothkopf and Kristian Kersting
- Abstract要約: 本稿では、構造因果解釈(SCI)と整合した人間可読解釈スキームを導出する理論解析について述べる。
我々は既存の神経誘導法(NIM)が実際に解釈可能であることを証明した。
In (E3) we observed superiority in human-based over NIM-based SCI in support of our initial hypothesis。
- 参考スコア(独自算出の注目度): 20.373576936661237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human mental processes allow for qualitative reasoning about causality in
terms of mechanistic relations of the variables of interest, which we argue are
naturally described by structural causal model (SCM). Since interpretations are
being derived from mental models, the same applies for SCM. By defining a
metric space on SCM, we provide a theoretical perspective on the comparison of
mental models and thereby conclude that interpretations can be used for guiding
a learning system towards true causality. To this effect, we present a
theoretical analysis from first principles that results in a human-readable
interpretation scheme consistent with the provided causality that we name
structural causal interpretations (SCI). Going further, we prove that any
existing neural induction method (NIM) is in fact interpretable. Our first
experiment (E1) assesses the quality of such NIM-based SCI. In (E2) we observe
evidence for our conjecture on improved sample-efficiency for SCI-based
learning. After conducting a small user study, in (E3) we observe superiority
in human-based over NIM-based SCI in support of our initial hypothesis.
- Abstract(参考訳): 人間の精神過程は、興味の変数の機械的関係の観点から因果関係に関する質的な推論を可能にし、これは構造因果モデル(SCM)によって自然に記述されていると我々は主張する。
解釈は精神モデルから派生しているため、scmも同様である。
SCMの計量空間を定義することにより、精神モデルの比較に関する理論的視点を提供し、学習システムを真の因果性へと導くために解釈を使用できると結論付ける。
そこで本研究では,構造的因果解釈 (sci) と命名する因果関係と一致する可読性解釈スキームを導出する第一原理からの理論解析を行う。
さらに、既存の神経誘導法(NIM)が実際に解釈可能であることを証明する。
我々の最初の実験(E1)は、このようなNIMベースのSCIの品質を評価する。
e2) では,sciベースの学習におけるサンプル効率の向上に関する推測の証拠を観察した。
小規模なユーザスタディを行った後、(E3)では、最初の仮説を支持するために、NIMベースのSCIよりも人間ベースの優位性を観察する。
関連論文リスト
- A Systematic Analysis of Large Language Models as Soft Reasoners: The Case of Syllogistic Inferences [5.141416267381492]
我々は、論理学と認知心理学において広範囲に研究されている誘因的推論の領域であるシロメトリクス推論の事例を考察する。
思考の連鎖的推論,文脈内学習,教師付き微調整がシロメトリクス的推論に及ぼす影響について検討した。
以上の結果から,事前学習したLSMの行動は認知科学によって説明できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-06-17T08:59:04Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - Reliability and Interpretability in Science and Deep Learning [0.0]
この記事では、従来の科学的モデルとDeep Neural Network(DNN)モデルの比較に焦点を当てる。
DNNモデルの複雑さは、その信頼性と長期的進歩の予測を妨げていると論じている。
また、解釈可能性が、統計分析だけでは理解できないあらゆるモデルの信頼性を評価するための前提条件であることも明らかにした。
論文 参考訳(メタデータ) (2024-01-14T20:14:07Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Neuro-Causal Factor Analysis [18.176375611711396]
神経因果因子分析(NCFA)の枠組みについて紹介する。
NCFAは潜伏因果発見法により因子を同定し、可変オートエンコーダ(VAE)を用いる
NCFAを実データおよび合成データセット上で評価し、データ再構成タスクにおける標準VAEと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-05-31T12:41:20Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Relating Graph Neural Networks to Structural Causal Models [17.276657786213015]
因果関係は、興味のある変数とその力学関係に関する情報を伝達する構造因果モデル(SCM)によって記述することができる。
本稿では,GNNとSCMの新たな接続を確立する理論解析について述べる。
次に、GNNに基づく因果推論のための新しいモデルクラスを構築し、因果効果の同定に十分である。
論文 参考訳(メタデータ) (2021-09-09T11:16:31Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。