論文の概要: Leveraging Large Language Models for Causal Discovery: a Constraint-based, Argumentation-driven Approach
- arxiv url: http://arxiv.org/abs/2602.16481v1
- Date: Wed, 18 Feb 2026 14:15:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.609698
- Title: Leveraging Large Language Models for Causal Discovery: a Constraint-based, Argumentation-driven Approach
- Title(参考訳): 因果発見のための大規模言語モデルを活用する - 制約に基づく議論駆動アプローチ
- Authors: Zihao Li, Fabrizio Russo,
- Abstract要約: Causal Assumption-based Argumentation (ABA)は、入力制約と出力グラフの対応性を確保するためにシンボリック推論を使用するフレームワークである。
本稿では,大言語モデル(LLM)をCausal ABAの不完全専門家として活用し,変数名や記述から意味的構造的事前を抽出する方法について検討する。
標準的なベンチマークとセマンティックグラウンドの合成グラフの実験は、最先端の性能を示している。
- 参考スコア(独自算出の注目度): 9.175642602891939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery seeks to uncover causal relations from data, typically represented as causal graphs, and is essential for predicting the effects of interventions. While expert knowledge is required to construct principled causal graphs, many statistical methods have been proposed to leverage observational data with varying formal guarantees. Causal Assumption-based Argumentation (ABA) is a framework that uses symbolic reasoning to ensure correspondence between input constraints and output graphs, while offering a principled way to combine data and expertise. We explore the use of large language models (LLMs) as imperfect experts for Causal ABA, eliciting semantic structural priors from variable names and descriptions and integrating them with conditional-independence evidence. Experiments on standard benchmarks and semantically grounded synthetic graphs demonstrate state-of-the-art performance, and we additionally introduce an evaluation protocol to mitigate memorisation bias when assessing LLMs for causal discovery.
- Abstract(参考訳): 因果発見は、典型的には因果グラフとして表されるデータから因果関係を解明し、介入の効果を予測するのに不可欠である。
原理化された因果グラフを構築するには専門家の知識が必要であるが、様々な形式的な保証を持つ観測データを活用するために多くの統計手法が提案されている。
Causal Assumption-based Argumentation (ABA) は、データと専門知識を組み合わせた原則的な方法を提供しながら、入力制約と出力グラフの対応を確保するためにシンボリック推論を使用するフレームワークである。
本研究では,大言語モデル(LLM)をCausal ABAの不完全専門家として用い,変数名や記述から意味的構造的先行性を抽出し,条件付き独立性証拠と統合する方法について検討する。
標準ベンチマークとセマンティックグラウンド合成グラフの実験は、最先端の性能を示し、また、因果発見のためのLLMを評価する際の記憶バイアスを軽減するための評価プロトコルも導入する。
関連論文リスト
- Use What You Know: Causal Foundation Models with Partial Graphs [97.91863420927866]
最近提案されたCausal Foundation Models (CFMs) は、因果発見と推論を単一ステップで補正することで、より統一的なアプローチを約束している。
我々は、因果グラフやより容易に利用可能な祖先情報などの因果情報に基づいてCFMを条件付ける手法を導入することにより、このギャップを埋める。
論文 参考訳(メタデータ) (2026-02-16T17:56:37Z) - Retrieving Classes of Causal Orders with Inconsistent Knowledge Bases [0.8192907805418583]
大規模言語モデル(LLM)は、テキストベースのメタデータから因果的知識を抽出するための有望な代替手段として登場した。
LLMは信頼できない傾向があり、幻覚を起こす傾向があり、その限界を考慮に入れた戦略を必要とする。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - Large Language Models for Constrained-Based Causal Discovery [4.858756226945995]
因果関係は経済、脳、気候といった複雑なシステムを理解するのに不可欠である。
この研究は、因果グラフ生成のためのドメインエキスパートの代替として、LLM(Large Language Models)の能力を探求する。
論文 参考訳(メタデータ) (2024-06-11T15:45:24Z) - Prompting or Fine-tuning? Exploring Large Language Models for Causal Graph Validation [0.0]
本研究では,因果グラフの因果性を評価するための大規模言語モデルの有用性について検討する。
本研究では,(1)ゼロショットと少数ショットの因果推論のためのプロンプトベース手法,(2)因果関係予測タスクのための微調整言語モデルの比較を行った。
論文 参考訳(メタデータ) (2024-05-29T09:06:18Z) - Argumentative Causal Discovery [13.853426822028975]
因果発見は、データの特徴間の因果関係を発掘することにつながる。
データ内の因果依存性を反映したグラフを学習するために仮定ベースの議論(ABA)をデプロイする。
我々は,本手法が望ましい特性を示すことを証明し,特に自然条件下では,地底因果グラフを検索できることを示す。
論文 参考訳(メタデータ) (2024-05-18T10:34:34Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。