論文の概要: Zero-shot Causal Graph Extrapolation from Text via LLMs
- arxiv url: http://arxiv.org/abs/2312.14670v1
- Date: Fri, 22 Dec 2023 13:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 15:07:25.673838
- Title: Zero-shot Causal Graph Extrapolation from Text via LLMs
- Title(参考訳): LLMによるテキストからのゼロショット因果グラフ外挿
- Authors: Alessandro Antonucci, Gregorio Piqu\'e, Marco Zaffalon
- Abstract要約: 我々は,自然言語から因果関係を推定する大規模言語モデル (LLM) の能力を評価する。
LLMは、(特別な)トレーニングサンプルを必要とせずにペア関係のベンチマークで競合性能を示す。
我々は、反復的なペアワイズクエリを通して因果グラフを外挿するアプローチを拡張した。
- 参考スコア(独自算出の注目度): 50.596179963913045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We evaluate the ability of large language models (LLMs) to infer causal
relations from natural language. Compared to traditional natural language
processing and deep learning techniques, LLMs show competitive performance in a
benchmark of pairwise relations without needing (explicit) training samples.
This motivates us to extend our approach to extrapolating causal graphs through
iterated pairwise queries. We perform a preliminary analysis on a benchmark of
biomedical abstracts with ground-truth causal graphs validated by experts. The
results are promising and support the adoption of LLMs for such a crucial step
in causal inference, especially in medical domains, where the amount of
scientific text to analyse might be huge, and the causal statements are often
implicit.
- Abstract(参考訳): 我々は,自然言語から因果関係を推定する大規模言語モデル (LLM) の能力を評価する。
従来の自然言語処理やディープラーニング技術と比較して、LLMは(専門的な)トレーニングサンプルを必要とせずにペア関係のベンチマークで競合性能を示す。
これにより、反復的なペアワイズクエリを通じて因果グラフを外挿するアプローチを拡張するモチベーションが生まれます。
専門家が検証した真正の因果グラフを用いた生物医学的要約のベンチマークを予備分析する。
この結果は、特に医学領域において、分析する科学的テキストの量が膨大であり、因果関係のステートメントが暗黙的である場合において、因果関係推論における重要なステップとしてLSMの採用を約束し、支持している。
関連論文リスト
- The Emergence of Large Language Models in Static Analysis: A First Look
through Micro-Benchmarks [3.848607479075651]
我々は,Pythonプログラムのコールグラフ解析と型推論を改善する上で,現在のLarge Language Models (LLM) が果たす役割について検討する。
本研究により, LLMは型推論において有望な結果を示し, 従来の手法よりも高い精度を示したが, コールグラフ解析では限界が認められた。
論文 参考訳(メタデータ) (2024-02-27T16:53:53Z) - Causal Graph Discovery with Retrieval-Augmented Generation based Large
Language Models [25.14578008156799]
本稿では,科学文献の大規模コーパスに含まれる広範な知識を利用して,一般的な因果グラフ回復タスクにおける因果関係を推定する手法を提案する。
本手法はまず,文献から関連テキストのチャンクを抽出し,各因子の関連性を識別し,ラベル付けする。
本手法は,文献のみからよく知られたSACHSデータセット上で,高品質な因果グラフを構築することができることを示す。
論文 参考訳(メタデータ) (2024-02-23T13:02:10Z) - Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Causal Inference Using LLM-Guided Discovery [34.040996887499425]
グラフ変数(因果順序)に対する位相的順序は、因果効果の推論にのみ十分であることを示す。
本稿では,Large Language Models (LLMs) から因果順序を求める頑健な手法を提案する。
提案手法は発見アルゴリズムと比較して因果順序精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-10-23T17:23:56Z) - Enhancing Reasoning Capabilities of Large Language Models: A Graph-Based
Verification Approach [0.0]
大きな言語モデル(LLM)は印象的な推論機能を示しています。
本稿では,LLMの推論能力をさらに向上するグラフベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T03:12:59Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Evaluating statistical language models as pragmatic reasoners [39.72348730045737]
我々は,語学的な発話の意味を推測するために,大規模言語モデルの能力を評価する。
LLMは、複数の複雑な実用的発話の解釈に対して、文脈的、人間的な分布を導出することができる。
結果は,統計的言語モデルの推論能力と,実践的・意味論的解析への応用について報告する。
論文 参考訳(メタデータ) (2023-05-01T18:22:10Z) - Can large language models build causal graphs? [54.74910640970968]
大規模言語モデル(LLM)は因果グラフの構築プロセスを容易にする機会である。
LLMは、ユーザが使用する単語、コンテキスト、およびプロンプトの選定に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-03-07T22:05:31Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。