論文の概要: Step-by-Step Causality: Transparent Causal Discovery with Multi-Agent Tree-Query and Adversarial Confidence Estimation
- arxiv url: http://arxiv.org/abs/2601.10137v1
- Date: Thu, 15 Jan 2026 07:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.033646
- Title: Step-by-Step Causality: Transparent Causal Discovery with Multi-Agent Tree-Query and Adversarial Confidence Estimation
- Title(参考訳): ステップバイステップ因果性:多エージェントツリークエリによる透明因果発見と相互信頼度推定
- Authors: Ziyi Ding, Chenfei Ye-Hao, Zheyuan Wang, Xiao-Ping Zhang,
- Abstract要約: Tree-Query は木構造でマルチエキスパートな LLM フレームワークで、ペアの因果探索を短いクエリシーケンスに短縮する。
4つの対関係の識別可能性に関する理論的保証が提供される。
- 参考スコア(独自算出の注目度): 10.652998143672658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal discovery aims to recover ``what causes what'', but classical constraint-based methods (e.g., PC, FCI) suffer from error propagation, and recent LLM-based causal oracles often behave as opaque, confidence-free black boxes. This paper introduces Tree-Query, a tree-structured, multi-expert LLM framework that reduces pairwise causal discovery to a short sequence of queries about backdoor paths, (in)dependence, latent confounding, and causal direction, yielding interpretable judgments with robustness-aware confidence scores. Theoretical guarantees are provided for asymptotic identifiability of four pairwise relations. On data-free benchmarks derived from Mooij et al. and UCI causal graphs, Tree-Query improves structural metrics over direct LLM baselines, and a diet--weight case study illustrates confounder screening and stable, high-confidence causal conclusions. Tree-Query thus offers a principled way to obtain data-free causal priors from LLMs that can complement downstream data-driven causal discovery. Code is available at https://anonymous.4open.science/r/Repo-9B3E-4F96.
- Abstract(参考訳): 因果発見は 'What cause what'' を回復することを目的としているが、古典的な制約ベースの方法(例えば、PC、FCI)はエラーの伝播に悩まされ、最近のLSMベースの因果オラクルは、しばしば不透明で自信のないブラックボックスとして振る舞う。
本稿では,木構造,マルチエキスパート LLM フレームワークである Tree-Query について紹介する。
理論上の保証は、4つの対関係の漸近的識別可能性に対して与えられる。
Mooij氏らによるデータフリーベンチマークとUCI因果グラフでは、Tree-Queryは直接LLMベースラインよりも構造的メトリクスを改善しており、ダイエット重みのあるケーススタディでは、共同設立者のスクリーニングと、安定した高信頼の因果関係の結論が示されている。
Tree-Queryは、下流のデータ駆動因果発見を補完する、LLMからデータフリー因果先を求める、原則化された方法を提供する。
コードはhttps://anonymous.4open.science/r/Repo-9B3E-4F96で公開されている。
関連論文リスト
- Ensembling LLM-Induced Decision Trees for Explainable and Robust Error Detection [24.742137117129502]
エラー検出はデータ品質の確保に重要である。
近年の最先端ED法では,大規模言語モデル(LLM)に組み込まれた事前学習された知識と意味的能力を利用して,細胞が誤っているかを直接ラベル付けしている。
ED(termed TreeED)の決定木を誘導するLLM-as-an-inducerフレームワークを提案し,さらにコンセンサス検出(termed ForestED)のために複数の木をアンサンブルする。
我々の手法は正確で説明可能で堅牢であり、最高のベースラインに対して平均16.1%のF1スコア改善を実現している。
論文 参考訳(メタデータ) (2025-12-08T07:40:48Z) - Retrieving Classes of Causal Orders with Inconsistent Knowledge Bases [0.8192907805418583]
大規模言語モデル(LLM)は、テキストベースのメタデータから因果的知識を抽出するための有望な代替手段として登場した。
LLMは信頼できない傾向があり、幻覚を起こす傾向があり、その限界を考慮に入れた戦略を必要とする。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - A Probabilistic Framework for LLM Hallucination Detection via Belief Tree Propagation [72.93327642336078]
本稿では,幻覚検出のための確率的フレームワークであるBelief Tree Propagation (BTProp)を提案する。
BTPropは、親ステートメントを子ステートメントに分解することで、論理的に関連するステートメントの信念ツリーを導入する。
複数の幻覚検出ベンチマークにおいて,AUROCとAUC-PRにより評価された基準線を3%-9%改善する。
論文 参考訳(メタデータ) (2024-06-11T05:21:37Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Integrating Large Language Model for Improved Causal Discovery [25.50313039584238]
大規模言語モデル(LLM)は、様々なドメイン固有のシナリオの因果解析に使われてきた。
エラー耐性 LLM による因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-29T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。