論文の概要: Large Language Models for Constrained-Based Causal Discovery
- arxiv url: http://arxiv.org/abs/2406.07378v1
- Date: Tue, 11 Jun 2024 15:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:15:04.852240
- Title: Large Language Models for Constrained-Based Causal Discovery
- Title(参考訳): 制約付き因果発見のための大規模言語モデル
- Authors: Kai-Hendrik Cohrs, Gherardo Varando, Emiliano Diaz, Vasileios Sitokonstantinou, Gustau Camps-Valls,
- Abstract要約: 因果関係は経済、脳、気候といった複雑なシステムを理解するのに不可欠である。
この研究は、因果グラフ生成のためのドメインエキスパートの代替として、LLM(Large Language Models)の能力を探求する。
- 参考スコア(独自算出の注目度): 4.858756226945995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causality is essential for understanding complex systems, such as the economy, the brain, and the climate. Constructing causal graphs often relies on either data-driven or expert-driven approaches, both fraught with challenges. The former methods, like the celebrated PC algorithm, face issues with data requirements and assumptions of causal sufficiency, while the latter demand substantial time and domain knowledge. This work explores the capabilities of Large Language Models (LLMs) as an alternative to domain experts for causal graph generation. We frame conditional independence queries as prompts to LLMs and employ the PC algorithm with the answers. The performance of the LLM-based conditional independence oracle on systems with known causal graphs shows a high degree of variability. We improve the performance through a proposed statistical-inspired voting schema that allows some control over false-positive and false-negative rates. Inspecting the chain-of-thought argumentation, we find causal reasoning to justify its answer to a probabilistic query. We show evidence that knowledge-based CIT could eventually become a complementary tool for data-driven causal discovery.
- Abstract(参考訳): 因果関係は経済、脳、気候といった複雑なシステムを理解するのに不可欠である。
因果グラフの構築は、しばしばデータ駆動または専門家駆動のアプローチに依存する。
かつての手法は、有名なPCアルゴリズムのように、データ要求や因果関係の仮定の問題に直面するが、後者は相当な時間とドメイン知識を必要とする。
この研究は、因果グラフ生成のためのドメインエキスパートの代替として、LLM(Large Language Models)の能力を探求する。
条件付き独立クエリを LLM のプロンプトとして設定し,その答えに PC アルゴリズムを用いる。
LLMに基づく因果グラフを持つシステムにおける条件独立オラクルの性能は、高いばらつきを示す。
我々は,偽陽性と偽陰性率をある程度制御できる統計的に着想を得た投票方式を提案することで,性能を向上する。
チェーンオブ思考の議論を検査すると、確率的クエリに対する応答を正当化する因果推論が見つかる。
我々は、知識に基づくCITが、最終的にはデータ駆動因果発見の補完ツールになることを示す。
関連論文リスト
- Argumentative Causal Discovery [13.853426822028975]
因果発見は、データの特徴間の因果関係を発掘することにつながる。
データ内の因果依存性を反映したグラフを学習するために仮定ベースの議論(ABA)をデプロイする。
我々は,本手法が望ましい特性を示すことを証明し,特に自然条件下では,地底因果グラフを検索できることを示す。
論文 参考訳(メタデータ) (2024-05-18T10:34:34Z) - ALCM: Autonomous LLM-Augmented Causal Discovery Framework [2.1470800327528843]
我々は、データ駆動因果探索アルゴリズムと大規模言語モデルとを相乗化するために、ALCM(Autonomous LLM-Augmented Causal Discovery Framework)という新しいフレームワークを導入する。
ALCMは、因果構造学習(英語版)、因果ラッパー(英語版)、LLM駆動因果リファクター(英語版)の3つの統合的な構成要素から構成される。
我々は、よく知られた7つのデータセットに2つのデモを実装することで、ALCMフレームワークを評価する。
論文 参考訳(メタデータ) (2024-05-02T21:27:45Z) - Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Large Language Model for Causal Decision Making [7.052058110182703]
大きな言語モデル(LLM)は、言語理解と一般的なトピックの推論で成功していることを示している。
LLMをLLM4Causalに微調整することで、因果タスクを識別し、対応する関数を実行し、ユーザのクエリと提供されたデータセットに基づいてその数値結果を解釈できる可能性を探る。
論文 参考訳(メタデータ) (2023-12-28T16:59:06Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Causal Inference Using LLM-Guided Discovery [34.040996887499425]
グラフ変数(因果順序)に対する位相的順序は、因果効果の推論にのみ十分であることを示す。
本稿では,Large Language Models (LLMs) から因果順序を求める頑健な手法を提案する。
提案手法は発見アルゴリズムと比較して因果順序精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-10-23T17:23:56Z) - Can Large Language Models Infer Causation from Correlation? [104.96351414570239]
大規模言語モデル(LLM)の純粋因果推論スキルをテストする。
相関文の集合を取り、変数間の因果関係を決定する新しいタスクCorr2Causeを定式化する。
これらのモデルがタスクのランダムな性能にほぼ近い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-09T12:09:15Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Causal discovery under a confounder blanket [9.196779204457059]
観測データから因果関係を推定することは容易ではないが、高次元では特に難しい。
これらの仮定を緩和し、より重要な問題、すなわち有向非巡回部分グラフの回復に焦点を当てる。
これらの条件下で因果関係を同定し、テスト手順を実装するための完全なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-11T18:10:45Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。