論文の概要: Large Language Model for Causal Decision Making
- arxiv url: http://arxiv.org/abs/2312.17122v2
- Date: Fri, 29 Dec 2023 21:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 19:07:15.556365
- Title: Large Language Model for Causal Decision Making
- Title(参考訳): 因果決定のための大規模言語モデル
- Authors: Haitao Jiang, Lin Ge, Yuhe Gao, Jianian Wang, Rui Song
- Abstract要約: 大きな言語モデル(LLM)は、言語理解と一般的なトピックの推論で成功していることを示している。
LLMをLLM4Causalに微調整することで、因果タスクを識別し、対応する関数を実行し、ユーザのクエリと提供されたデータセットに基づいてその数値結果を解釈できる可能性を探る。
- 参考スコア(独自算出の注目度): 7.565772011682912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown their success in language
understanding and reasoning on general topics. However, their capability to
inference based on user-specified structured data and knowledge in corpus-rare
concepts like causal decision-making is still limited. In this work, we explore
the possibility of fine-tuning an open-sourced LLM into LLM4Causal, which can
identify the causal task, execute a corresponding function, and interpret its
numerical results based on users' queries and the provided dataset. Meanwhile,
we propose a data generation process for more controllable GPT prompting and
present two instruction-tuning datasets: (1) Causal-Retrieval-Bench for causal
problem identification and input parameter extraction for causal function
calling and (2) Causal-Interpret-Bench for in-context causal interpretation.
With three case studies, we showed that LLM4Causal can deliver end-to-end
solutions for causal problems and provide easy-to-understand answers. Numerical
studies also reveal that it has a remarkable ability to identify the correct
causal task given a query.
- Abstract(参考訳): 大規模言語モデル(llm)は、一般的なトピックに対する言語理解と推論の成功を示している。
しかし、因果決定のようなコーパス・レア概念におけるユーザ特定構造化データと知識に基づく推論能力はまだ限られている。
本研究では,LLM を LLM4Causal に微調整することで,因果的タスクを識別し,対応する関数を実行し,ユーザのクエリと提供されるデータセットに基づいてその数値結果を解釈できる可能性を検討する。
一方,より制御可能なgptプロンプトのためのデータ生成プロセスを提案し,(1)因果問題識別のためのcausal-retrieval-benchと因果関数呼び出しのための入力パラメータ抽出,(2)文脈内因果解釈のためのcausal-interpret-benchの2つの命令チューニングデータセットを提案する。
3つのケーススタディで、llm4causalは因果問題に対するエンドツーエンドソリューションを提供し、理解しやすい回答を提供できることを示した。
数値研究では、クエリによって与えられた正しい因果タスクを識別する能力も明らかにされている。
関連論文リスト
- Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2798386044751477]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - Probabilistic Reasoning in Generative Large Language Models [21.335836561959887]
本稿では,Large Language Models (LLM) が,確率値を介して明示的に定量化される不確実性を含む情報を含むテキストを推論する際に直面する課題について考察する。
LLMの確率論的推論能力をテストするために設計された新しいデータセットであるBayesian Linguistic Inference dataset (BLInD)を紹介する。
本稿では,Pythonのコード,確率的推論アルゴリズム,確率論的論理プログラミングなど,様々な形式的表現に問題をマッピングする戦略を提案する。
論文 参考訳(メタデータ) (2024-02-14T23:05:44Z) - Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Caught in the Quicksand of Reasoning, Far from AGI Summit: Evaluating
LLMs' Mathematical and Coding Competency through Ontology-guided
Interventions [50.68293377521595]
大規模言語モデル(LLM)は論理的推論ベンチマークで顕著な結果を示した。
算術的推論とコード生成という,2つの一般的な推論タスクに注目します。
質問に対して、すべてのモデルで大幅なパフォーマンス低下を見せています。
論文 参考訳(メタデータ) (2024-01-17T18:13:07Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Can Large Language Models Infer Causation from Correlation? [80.38419293391397]
大規模言語モデル(LLM)の純粋因果推論スキルをテストする。
相関文の集合を取り、変数間の因果関係を決定する新しいタスクCorr2Causeを定式化する。
これらのモデルがタスクのランダムな性能にほぼ近い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-09T12:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。