論文の概要: CauScientist: Teaching LLMs to Respect Data for Causal Discovery
- arxiv url: http://arxiv.org/abs/2601.13614v1
- Date: Tue, 20 Jan 2026 05:32:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.171153
- Title: CauScientist: Teaching LLMs to Respect Data for Causal Discovery
- Title(参考訳): CauScientist:LLMに因果発見のためのデータ参照を教える
- Authors: Bo Peng, Sirui Chen, Lei Xu, Chaochao Lu,
- Abstract要約: CauScientistは「データ科学者」と確率統計を厳密な「検証者」として相乗化するフレームワークである
実験の結果、CauScientistは純粋にデータ駆動のベースラインよりも大幅に優れていた。
CauScientistは37ノードグラフ上のQwen3-32Bと比較して、構造ハミング距離(SHD)を44.0%削減する。
- 参考スコア(独自算出の注目度): 25.77810792733626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery is fundamental to scientific understanding and reliable decision-making. Existing approaches face critical limitations: purely data-driven methods suffer from statistical indistinguishability and modeling assumptions, while recent LLM-based methods either ignore statistical evidence or incorporate unverified priors that can mislead result. To this end, we propose CauScientist, a collaborative framework that synergizes LLMs as hypothesis-generating "data scientists" with probabilistic statistics as rigorous "verifiers". CauScientist employs hybrid initialization to select superior starting graphs, iteratively refines structures through LLM-proposed modifications validated by statistical criteria, and maintains error memory to guide efficient search space. Experiments demonstrate that CauScientist substantially outperforms purely data-driven baselines, achieving up to 53.8% F1 score improvement and enhancing recall from 35.0% to 100.0%. Notably, while standalone LLM performance degrades with graph complexity, CauScientist reduces structural hamming distance (SHD) by 44.0% compared to Qwen3-32B on 37-node graphs. Our project page is at https://github.com/OpenCausaLab/CauScientist.
- Abstract(参考訳): 因果発見は科学的理解と信頼できる意思決定の基礎である。
既存のアプローチでは、純粋にデータ駆動の手法は統計的不明瞭さとモデリングの仮定に悩まされる一方、最近のLCMベースの手法は統計的証拠を無視したり、結果を誤解させる未検証の事前を組み込んだりしている。
そこで本研究では,LLMを仮説生成型データ科学者として,確率統計を厳密な「検証」として,協調的なフレームワークであるCauScientistを提案する。
CauScientistは、優れた開始グラフを選択するためにハイブリッド初期化を採用し、統計的基準によって検証されたLLMによる修正を通じて構造を反復的に洗練し、効率的な探索空間を導くためにエラーメモリを維持している。
実験の結果、CauScientistは純粋にデータ駆動のベースラインを大幅に上回り、最高53.8%のF1スコアの改善、35.0%から100.0%までのリコールを達成している。
特に、スタンドアロンのLLM性能はグラフの複雑さとともに低下するが、CauScientistは37ノードグラフ上のQwen3-32Bと比較して、構造的ハミング距離(SHD)を44.0%削減する。
プロジェクトページはhttps://github.com/OpenCausaLab/CauScientist.comにある。
関連論文リスト
- Step-by-Step Causality: Transparent Causal Discovery with Multi-Agent Tree-Query and Adversarial Confidence Estimation [10.652998143672658]
Tree-Query は木構造でマルチエキスパートな LLM フレームワークで、ペアの因果探索を短いクエリシーケンスに短縮する。
4つの対関係の識別可能性に関する理論的保証が提供される。
論文 参考訳(メタデータ) (2026-01-15T07:28:59Z) - Realizing LLMs' Causal Potential Requires Science-Grounded, Novel Benchmarks [20.409472830397455]
因果発見に関するLLM(Large Language Models)による最近の強いパフォーマンスの主張は、重要な欠陥によって損なわれている。
LLMは因果構造を本当に理由付けていますか?
LLMの因果解析の可能性を実現するには、(P.1)最近の科学的研究に基づく堅牢な評価プロトコルを開発し、(P.2)LLM由来の知識とデータ駆動統計を組み合わせたハイブリッドな手法を設計することが必要である。
論文 参考訳(メタデータ) (2025-10-18T14:58:04Z) - Score-informed Neural Operator for Enhancing Ordering-based Causal Discovery [12.33811209316863]
対数密度のヘッセン対角線を近似するために,Score-informed Neural Operator (SciNO)を提案する。
SciNOは、合成グラフで42.7%、実世界のデータセットで31.5%のオーダー分散を減少させる。
また,自己回帰モデルを用いた因果推論のための確率論的制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-08-18T06:25:41Z) - Hey, That's My Data! Label-Only Dataset Inference in Large Language Models [63.35066172530291]
CatShiftはラベルのみのデータセット推論フレームワークである。
LLMは、新しいデータに晒されたとき、学習した知識を上書きする傾向にある。
論文 参考訳(メタデータ) (2025-06-06T13:02:59Z) - S$^2$R: Teaching LLMs to Self-verify and Self-correct via Reinforcement Learning [51.84977135926156]
S$2$Rはモデルに推論時の自己検証と自己正当性を教えることによってLLM推論を強化する効率的なフレームワークである。
以上の結果から,Qwen2.5-math-7Bの精度は51.0%から81.6%に向上した。
論文 参考訳(メタデータ) (2025-02-18T13:40:22Z) - AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - Assumption-Lean and Data-Adaptive Post-Prediction Inference [1.5050365268347254]
本稿では,ML予測データに基づく有効かつ強力な推論を可能にするPoSt-Prediction Adaptive Inference (PSPA)を提案する。
シミュレーションと実データによる手法の統計的優位性と適用性を示す。
論文 参考訳(メタデータ) (2023-11-23T22:41:30Z) - Lassoed Tree Boosting [53.56229983630983]
有界断面変動のカドラー関数の大きな非パラメトリック空間において,早期に停止するn-1/4$ L2の収束速度を持つ勾配向上木アルゴリズムを証明した。
我々の収束証明は、ネストしたドンスカー類の経験的損失最小化子による早期停止に関する新しい一般定理に基づいている。
論文 参考訳(メタデータ) (2022-05-22T00:34:41Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。