論文の概要: Can LLMs Leverage Observational Data? Towards Data-Driven Causal Discovery with LLMs
- arxiv url: http://arxiv.org/abs/2504.10936v1
- Date: Tue, 15 Apr 2025 07:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:25.266294
- Title: Can LLMs Leverage Observational Data? Towards Data-Driven Causal Discovery with LLMs
- Title(参考訳): LLMは観測データを活用することができるか? LLMによるデータ駆動因果発見に向けて
- Authors: Yuni Susanti, Michael Färber,
- Abstract要約: 因果発見は伝統的に観測データに適用された統計手法に依存している。
大規模言語モデル(LLM)の最近の進歩は、因果発見の新しい可能性をもたらした。
- 参考スコア(独自算出の注目度): 10.573861741540853
- License:
- Abstract: Causal discovery traditionally relies on statistical methods applied to observational data, often requiring large datasets and assumptions about underlying causal structures. Recent advancements in Large Language Models (LLMs) have introduced new possibilities for causal discovery by providing domain expert knowledge. However, it remains unclear whether LLMs can effectively process observational data for causal discovery. In this work, we explore the potential of LLMs for data-driven causal discovery by integrating observational data for LLM-based reasoning. Specifically, we examine whether LLMs can effectively utilize observational data through two prompting strategies: pairwise prompting and breadth first search (BFS)-based prompting. In both approaches, we incorporate the observational data directly into the prompt to assess LLMs' ability to infer causal relationships from such data. Experiments on benchmark datasets show that incorporating observational data enhances causal discovery, boosting F1 scores by up to 0.11 point using both pairwise and BFS LLM-based prompting, while outperforming traditional statistical causal discovery baseline by up to 0.52 points. Our findings highlight the potential and limitations of LLMs for data-driven causal discovery, demonstrating their ability to move beyond textual metadata and effectively interpret and utilize observational data for more informed causal reasoning. Our studies lays the groundwork for future advancements toward fully LLM-driven causal discovery.
- Abstract(参考訳): 因果発見は伝統的に観測データに適用される統計手法に依存しており、しばしば基礎となる因果構造に関する大きなデータセットと仮定を必要とする。
大規模言語モデル(LLM)の最近の進歩は、ドメインエキスパートの知識を提供することで因果発見の新たな可能性をもたらした。
しかし、LLMが因果発見のために観測データを効果的に処理できるかどうかは不明である。
本研究では、LLMに基づく推論のための観測データを統合することにより、データ駆動因果探索のためのLLMの可能性を探る。
具体的には、LLMが2つのプロンプト戦略(ペアワイズ・プロンプトとブロードス・ファースト・サーチ(BFS)ベースのプロンプト)により、観測データを有効に活用できるかどうかを検討する。
両手法とも、観測データを直接組み込んで、これらのデータから因果関係を推測するLSMの能力を評価する。
ベンチマークデータセットの実験では、観測データの導入により因果発見が促進され、F1スコアはペアワイズとBFS LLMベースのプロンプトを使用して最大0.11ポイント向上し、従来の統計因果発見ベースラインを最大0.52ポイント上回っている。
本研究は,データ駆動因果発見におけるLCMの可能性と限界を浮き彫りにして,テキストメタデータを超越し,より深い因果推論のために観測データを効果的に解釈・活用する能力を示すものである。
本研究は,LLMによる因果発見に向けた今後の発展に向けた基礎研究である。
関連論文リスト
- Regularized Multi-LLMs Collaboration for Enhanced Score-based Causal Discovery [13.654021365091305]
我々は,大言語モデル(LLM)を用いて因果発見アプローチを強化する可能性を探る。
本稿では,1つのLLMだけでなく複数のLLMのキャパシティを活用して発見プロセスを増強する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-27T01:56:21Z) - From Pre-training Corpora to Large Language Models: What Factors Influence LLM Performance in Causal Discovery Tasks? [51.42906577386907]
本研究では,因果発見タスクにおけるLarge Language Models(LLM)の性能に影響を与える要因について検討する。
因果関係の頻度が高いことは、より良いモデル性能と相関し、トレーニング中に因果関係の情報に広範囲に暴露することで、因果関係の発見能力を高めることを示唆している。
論文 参考訳(メタデータ) (2024-07-29T01:45:05Z) - Enhancing Temporal Understanding in LLMs for Semi-structured Tables [50.59009084277447]
我々は、大規模言語モデル(LLM)の特定の限界を特定するために、時間的データセットの包括的な分析を行う。
調査の結果,時間的時間的質問応答に特化したデータセットであるTempTabQAが強化された。
我々は,この領域におけるLLM機能を強化するために,新しいアプローチC.L.E.A.R.を導入する。
論文 参考訳(メタデータ) (2024-07-22T20:13:10Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - Causal Graph Discovery with Retrieval-Augmented Generation based Large Language Models [23.438388321411693]
因果グラフの回復は、伝統的に統計的推定に基づく手法や、興味のある変数に関する個人の知識に基づいて行われる。
本稿では,大言語モデル(LLM)を利用して,一般的な因果グラフ復元タスクにおける因果関係を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-02-23T13:02:10Z) - Can We Utilize Pre-trained Language Models within Causal Discovery
Algorithms? [0.2303687191203919]
事前学習言語モデル(PLM)の因果推論は、テキストベースの記述にのみ依存する。
PLMから得られた事前知識を因果探索アルゴリズムと統合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-19T03:31:30Z) - An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning [70.48605869773814]
カタストロフィック・ナッシング(英: Catastrophic forgetting、CF)は、機械学習において、モデルが以前に学習した情報を忘れたときに発生する現象である。
本研究では,大規模言語モデルにおける連続的調律時の忘れ現象を実験的に評価する。
論文 参考訳(メタデータ) (2023-08-17T02:53:23Z) - Can Large Language Models Infer Causation from Correlation? [104.96351414570239]
大規模言語モデル(LLM)の純粋因果推論スキルをテストする。
相関文の集合を取り、変数間の因果関係を決定する新しいタスクCorr2Causeを定式化する。
これらのモデルがタスクのランダムな性能にほぼ近い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-09T12:09:15Z) - Causal Reasoning and Large Language Models: Opening a New Frontier for Causality [29.433401785920065]
大規模言語モデル(LLM)は、高い確率で因果引数を生成することができる。
LLMは人間のドメインの専門家によって因果解析のセットアップの労力を節約するために使われる。
論文 参考訳(メタデータ) (2023-04-28T19:00:43Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。