論文の概要: Discovery of the Hidden World with Large Language Models
- arxiv url: http://arxiv.org/abs/2402.03941v1
- Date: Tue, 6 Feb 2024 12:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 15:09:13.120286
- Title: Discovery of the Hidden World with Large Language Models
- Title(参考訳): 大規模言語モデルによる隠れ世界の発見
- Authors: Chenxi Liu, Yongqiang Chen, Tongliang Liu, Mingming Gong, James Cheng,
Bo Han, Kun Zhang
- Abstract要約: COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
- 参考スコア(独自算出の注目度): 100.38157787218044
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Science originates with discovering new causal knowledge from a combination
of known facts and observations. Traditional causal discovery approaches mainly
rely on high-quality measured variables, usually given by human experts, to
find causal relations. However, the causal variables are usually unavailable in
a wide range of real-world applications. The rise of large language models
(LLMs) that are trained to learn rich knowledge from the massive observations
of the world, provides a new opportunity to assist with discovering high-level
hidden variables from the raw observational data. Therefore, we introduce COAT:
Causal representatiOn AssistanT. COAT incorporates LLMs as a factor proposer
that extracts the potential causal factors from unstructured data. Moreover,
LLMs can also be instructed to provide additional information used to collect
data values (e.g., annotation criteria) and to further parse the raw
unstructured data into structured data. The annotated data will be fed to a
causal learning module (e.g., the FCI algorithm) that provides both rigorous
explanations of the data, as well as useful feedback to further improve the
extraction of causal factors by LLMs. We verify the effectiveness of COAT in
uncovering the underlying causal system with two case studies of review rating
analysis and neuropathic diagnosis.
- Abstract(参考訳): 科学は既知の事実と観察の組み合わせから新しい因果知識を発見することから始まる。
因果関係を見つけるために、従来の因果関係発見アプローチは、主に人間の専門家によって与えられる高品質な測定変数に依存している。
しかし、因果変数は通常、広い範囲の現実世界のアプリケーションでは利用できない。
世界の大規模な観測から豊富な知識を学ぶために訓練された大規模言語モデル(LLM)の台頭は、生の観測データから高いレベルの隠れた変数を発見する新しい機会を提供する。
そこで、COAT: Causal representatiOn AssistanTを紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
さらに、LCMは、データ値(例えば、アノテーション基準)の収集に使用される追加情報を提供し、生の非構造化データを構造化データに解析するように指示することもできる。
注釈付きデータは因果学習モジュール(例えば、FCIアルゴリズム)に供給され、データの厳密な説明とLLMによる因果要因の抽出をさらに改善するための有用なフィードバックが提供される。
基礎的因果系を明らかにするためのCOATの有効性を,レビュー評価分析と神経因果診断の2症例で検証した。
関連論文リスト
- Improving Causal Reasoning in Large Language Models: A Survey [16.55801836321059]
因果推論は知性の重要な側面であり、問題解決、意思決定、世界理解に不可欠である。
大規模言語モデル(LLM)は出力に対して有理性を生成することができるが、因果推論を確実に行う能力は未だ不明である。
論文 参考訳(メタデータ) (2024-10-22T04:18:19Z) - GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - From Pre-training Corpora to Large Language Models: What Factors Influence LLM Performance in Causal Discovery Tasks? [51.42906577386907]
本研究では,因果発見タスクにおけるLarge Language Models(LLM)の性能に影響を与える要因について検討する。
因果関係の頻度が高いことは、より良いモデル性能と相関し、トレーニング中に因果関係の情報に広範囲に暴露することで、因果関係の発見能力を高めることを示唆している。
論文 参考訳(メタデータ) (2024-07-29T01:45:05Z) - SpaRC and SpaRP: Spatial Reasoning Characterization and Path Generation for Understanding Spatial Reasoning Capability of Large Language Models [70.01883340129204]
空間推論は 生物学的と人工知能の両方において 重要な要素です
本稿では,現在最先端の大規模言語モデル (LLM) の空間的推論能力について包括的に検討する。
論文 参考訳(メタデータ) (2024-06-07T01:06:34Z) - ALCM: Autonomous LLM-Augmented Causal Discovery Framework [2.1470800327528843]
我々は、データ駆動因果探索アルゴリズムと大規模言語モデルとを相乗化するために、ALCM(Autonomous LLM-Augmented Causal Discovery Framework)という新しいフレームワークを導入する。
ALCMは、因果構造学習(英語版)、因果ラッパー(英語版)、LLM駆動因果リファクター(英語版)の3つの統合的な構成要素から構成される。
我々は、よく知られた7つのデータセットに2つのデモを実装することで、ALCMフレームワークを評価する。
論文 参考訳(メタデータ) (2024-05-02T21:27:45Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - EpiK-Eval: Evaluation for Language Models as Epistemic Models [16.485951373967502]
セグメンテッドな物語から一貫した知識表現を定式化する上で,LLMの習熟度を評価するための新しい質問答えベンチマークであるEpiK-Evalを紹介する。
これらの欠点は、一般的な訓練目的の本質的な性質に起因していると論じる。
本研究の成果は,より堅牢で信頼性の高いLCMを開発する上での洞察を与えるものである。
論文 参考訳(メタデータ) (2023-10-23T21:15:54Z) - From Query Tools to Causal Architects: Harnessing Large Language Models
for Advanced Causal Discovery from Data [19.264745484010106]
大規模言語モデル (LLM) は、多くの社会的影響のある領域における概念間の因果解析の優れた能力を示す。
様々な因果発見および推論タスクにおけるLLM性能に関する最近の研究は、因果関係の古典的な3段階の枠組みに新たなはしごを生じさせている。
本稿では,知識に基づくLLM因果解析とデータ駆動因果構造学習を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-29T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。