論文の概要: Causal Graph Discovery with Retrieval-Augmented Generation based Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.15301v1
- Date: Fri, 23 Feb 2024 13:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 14:29:49.099407
- Title: Causal Graph Discovery with Retrieval-Augmented Generation based Large
Language Models
- Title(参考訳): 検索型大規模言語モデルを用いた因果グラフ探索
- Authors: Yuzhe Zhang, Yipeng Zhang, Yidong Gan, Lina Yao, Chen Wang
- Abstract要約: 本稿では,科学文献の大規模コーパスに含まれる広範な知識を利用して,一般的な因果グラフ回復タスクにおける因果関係を推定する手法を提案する。
本手法はまず,文献から関連テキストのチャンクを抽出し,各因子の関連性を識別し,ラベル付けする。
本手法は,文献のみからよく知られたSACHSデータセット上で,高品質な因果グラフを構築することができることを示す。
- 参考スコア(独自算出の注目度): 25.14578008156799
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Causal graph recovery is essential in the field of causal inference.
Traditional methods are typically knowledge-based or statistical
estimation-based, which are limited by data collection biases and individuals'
knowledge about factors affecting the relations between variables of interests.
The advance of large language models (LLMs) provides opportunities to address
these problems. We propose a novel method that utilizes the extensive knowledge
contained within a large corpus of scientific literature to deduce causal
relationships in general causal graph recovery tasks. This method leverages
Retrieval Augmented-Generation (RAG) based LLMs to systematically analyze and
extract pertinent information from a comprehensive collection of research
papers. Our method first retrieves relevant text chunks from the aggregated
literature. Then, the LLM is tasked with identifying and labelling potential
associations between factors. Finally, we give a method to aggregate the
associational relationships to build a causal graph. We demonstrate our method
is able to construct high quality causal graphs on the well-known SACHS dataset
solely from literature.
- Abstract(参考訳): 因果グラフの回復は因果推論の分野において不可欠である。
従来の手法は一般に知識ベースや統計的推定ベースであり、データ収集バイアスや個人の関心変数間の関係に影響する要因に関する知識によって制限される。
大規模言語モデル(LLM)の進歩は、これらの問題に対処する機会を提供する。
本研究では,科学文献の大規模なコーパスに含まれる膨大な知識を活用し,因果関係を推定する新しい手法を提案する。
本手法は,RAG(Retrieval Augmented-Generation)に基づくLLMを用いて,総合的な研究論文コレクションから関連する情報を体系的に分析・抽出する。
本手法は,まず文献から関連するテキストチャンクを検索する。
次に、LSMは因子間の潜在的な関連を識別しラベル付けする。
最後に,関係関係を集約して因果グラフを構築する手法を提案する。
本手法は,文献のみでよく知られたサックスデータセット上に高品質な因果グラフを構築できることを実証する。
関連論文リスト
- Preference Leakage: A Contamination Problem in LLM-as-a-judge [69.96778498636071]
審査員としてのLLM(Large Language Models)とLLMに基づくデータ合成は、2つの基本的なLLM駆動型データアノテーション法として登場した。
本研究では, 合成データ生成器とLCMに基づく評価器の関連性に起因するLCM-as-a-judgeの汚染問題である選好リークを明らかにする。
論文 参考訳(メタデータ) (2025-02-03T17:13:03Z) - Discovery of Maximally Consistent Causal Orders with Large Language Models [0.8192907805418583]
因果発見は複雑なシステムを理解するのに不可欠である。
伝統的な手法は、しばしば強く、証明不可能な仮定に依存する。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - Regularized Multi-LLMs Collaboration for Enhanced Score-based Causal Discovery [13.654021365091305]
我々は,大言語モデル(LLM)を用いて因果発見アプローチを強化する可能性を探る。
本稿では,1つのLLMだけでなく複数のLLMのキャパシティを活用して発見プロセスを増強する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-27T01:56:21Z) - From Pre-training Corpora to Large Language Models: What Factors Influence LLM Performance in Causal Discovery Tasks? [51.42906577386907]
本研究では,因果発見タスクにおけるLarge Language Models(LLM)の性能に影響を与える要因について検討する。
因果関係の頻度が高いことは、より良いモデル性能と相関し、トレーニング中に因果関係の情報に広範囲に暴露することで、因果関係の発見能力を高めることを示唆している。
論文 参考訳(メタデータ) (2024-07-29T01:45:05Z) - ALCM: Autonomous LLM-Augmented Causal Discovery Framework [2.1470800327528843]
我々は、データ駆動因果探索アルゴリズムと大規模言語モデルとを相乗化するために、ALCM(Autonomous LLM-Augmented Causal Discovery Framework)という新しいフレームワークを導入する。
ALCMは、因果構造学習(英語版)、因果ラッパー(英語版)、LLM駆動因果リファクター(英語版)の3つの統合的な構成要素から構成される。
我々は、よく知られた7つのデータセットに2つのデモを実装することで、ALCMフレームワークを評価する。
論文 参考訳(メタデータ) (2024-05-02T21:27:45Z) - CausalBench: A Comprehensive Benchmark for Causal Learning Capability of LLMs [27.362012903540492]
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2024-04-09T14:40:08Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Zero-shot Causal Graph Extrapolation from Text via LLMs [50.596179963913045]
我々は,自然言語から因果関係を推定する大規模言語モデル (LLM) の能力を評価する。
LLMは、(特別な)トレーニングサンプルを必要とせずにペア関係のベンチマークで競合性能を示す。
我々は、反復的なペアワイズクエリを通して因果グラフを外挿するアプローチを拡張した。
論文 参考訳(メタデータ) (2023-12-22T13:14:38Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - From Query Tools to Causal Architects: Harnessing Large Language Models
for Advanced Causal Discovery from Data [19.264745484010106]
大規模言語モデル (LLM) は、多くの社会的影響のある領域における概念間の因果解析の優れた能力を示す。
様々な因果発見および推論タスクにおけるLLM性能に関する最近の研究は、因果関係の古典的な3段階の枠組みに新たなはしごを生じさせている。
本稿では,知識に基づくLLM因果解析とデータ駆動因果構造学習を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-29T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。