論文の概要: Improving constraint-based discovery with robust propagation and reliable LLM priors
- arxiv url: http://arxiv.org/abs/2509.23570v1
- Date: Sun, 28 Sep 2025 02:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.295668
- Title: Improving constraint-based discovery with robust propagation and reliable LLM priors
- Title(参考訳): 頑健な伝播と信頼性LLM前処理による制約に基づく発見の改善
- Authors: Ruiqi Lyu, Alistair Turcan, Martin Jinye Zhang, Bryan Wilder,
- Abstract要約: 高信頼度種子から縁を伝播する因果発見法であるMosaCDを提案する。
次に、最も信頼性の高いエッジを優先し、スケルトンに基づく発見手法と統合可能な、新しい信頼度低下伝搬戦略を適用する。
- 参考スコア(独自算出の注目度): 13.871152992680152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning causal structure from observational data is central to scientific modeling and decision-making. Constraint-based methods aim to recover conditional independence (CI) relations in a causal directed acyclic graph (DAG). Classical approaches such as PC and subsequent methods orient v-structures first and then propagate edge directions from these seeds, assuming perfect CI tests and exhaustive search of separating subsets -- assumptions often violated in practice, leading to cascading errors in the final graph. Recent work has explored using large language models (LLMs) as experts, prompting sets of nodes for edge directions, and could augment edge orientation when assumptions are not met. However, such methods implicitly assume perfect experts, which is unrealistic for hallucination-prone LLMs. We propose MosaCD, a causal discovery method that propagates edges from a high-confidence set of seeds derived from both CI tests and LLM annotations. To filter hallucinations, we introduce shuffled queries that exploit LLMs' positional bias, retaining only high-confidence seeds. We then apply a novel confidence-down propagation strategy that orients the most reliable edges first, and can be integrated with any skeleton-based discovery method. Across multiple real-world graphs, MosaCD achieves higher accuracy in final graph construction than existing constraint-based methods, largely due to the improved reliability of initial seeds and robust propagation strategies.
- Abstract(参考訳): 観測データから因果構造を学ぶことは、科学的モデリングと意思決定の中心である。
制約に基づく手法は、因果有向非巡回グラフ(DAG)における条件独立性(CI)関係の回復を目的としている。
PCやそれに続く方法のような古典的なアプローチは、まず最初にV構造をオリエントにし、次にこれらのシードからエッジ方向を伝播し、完全なCIテストとサブセットの徹底的な探索を仮定する。
最近の研究は、大規模言語モデル(LLM)を専門家として使用し、エッジ方向のノードセットをプロンプトし、仮定が満たされていない場合にエッジの向きを増大させる可能性がある。
しかし、このような手法は暗黙的に完全専門家を仮定するが、幻覚が引き起こすLSMには非現実的である。
本稿では,CIテストとLLMアノテーションの両方から得られた高信頼度種子からエッジを伝播する因果発見手法であるMosaCDを提案する。
幻覚をフィルタするために, LLMの位置バイアスを利用したシャッフルクエリを導入し, 高信頼種子のみを保持する。
次に、最も信頼性の高いエッジを優先し、スケルトンに基づく発見手法と統合可能な、新しい信頼度低下伝搬戦略を適用する。
複数の実世界のグラフにまたがって、MosaCDは、初期種子の信頼性の向上と堅牢な伝播戦略により、既存の制約ベースの手法よりも最終的なグラフ構築において高い精度を達成する。
関連論文リスト
- Mitigating Hidden Confounding by Progressive Confounder Imputation via Large Language Models [46.92706900119399]
大規模言語モデル (LLMs) を用いた隠れコンファウンディングの軽減に向けた最初の試みを行う。
本稿では,LLMのセマンティック知識と世界知識を利用して,隠れた共同創設者を反復的に生成し,指示し,検証するフレームワークであるProCIを提案する。
大規模な実験により、ProCIは有意義な共同設立者を明らかにし、治療効果の推定を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-06-26T03:49:13Z) - Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs [31.457954100196524]
我々は、優先事項に関する審議(DP)と呼ばれる信頼できる推論フレームワークを提案する。
DPは、教師付き微調整とKahneman-Tversky最適化を組み合わせることで、構造的事前をLLM(Large Language Models)に統合する。
本フレームワークでは,LLMに対して,抽出した制約前処理に基づいて精巧な推論検証を行うための推論イントロスペクション戦略を採用している。
論文 参考訳(メタデータ) (2025-05-21T07:38:45Z) - Retrieving Classes of Causal Orders with Inconsistent Knowledge Bases [0.8192907805418583]
大規模言語モデル(LLM)は、テキストベースのメタデータから因果的知識を抽出するための有望な代替手段として登場した。
LLMは信頼できない傾向があり、幻覚を起こす傾向があり、その限界を考慮に入れた戦略を必要とする。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Causal Order: The Key to Leveraging Imperfect Experts in Causal Inference [32.12579144494773]
大言語モデル(LLM)は、因果グラフを推測する専門家として使われてきた。
本稿では,専門家の知識を活用するための,より安定した出力インタフェースとして因果順序を提案する。
本稿では,三重項法から得られた因果順序を,下流グラフ探索および効果推論タスクにおける誤差を低減するために利用する方法について述べる。
論文 参考訳(メタデータ) (2023-10-23T17:23:56Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。