論文の概要: Understanding Causality with Large Language Models: Feasibility and
Opportunities
- arxiv url: http://arxiv.org/abs/2304.05524v1
- Date: Tue, 11 Apr 2023 22:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 16:35:48.327863
- Title: Understanding Causality with Large Language Models: Feasibility and
Opportunities
- Title(参考訳): 大規模言語モデルによる因果関係の理解:可能性と機会
- Authors: Cheng Zhang, Stefan Bauer, Paul Bennett, Jiangfeng Gao, Wenbo Gong,
Agrin Hilmkil, Joel Jennings, Chao Ma, Tom Minka, Nick Pawlowski, James
Vaughan
- Abstract要約: 我々は,大言語モデル(LLM)の強みと弱みを分析し,因果的疑問に答える能力を評価する。
我々は,明示的かつ暗黙的な因果的加群の実現など,今後の方向性や可能性について議論する。
- 参考スコア(独自算出の注目度): 23.68197884888299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We assess the ability of large language models (LLMs) to answer causal
questions by analyzing their strengths and weaknesses against three types of
causal question. We believe that current LLMs can answer causal questions with
existing causal knowledge as combined domain experts. However, they are not yet
able to provide satisfactory answers for discovering new knowledge or for
high-stakes decision-making tasks with high precision. We discuss possible
future directions and opportunities, such as enabling explicit and implicit
causal modules as well as deep causal-aware LLMs. These will not only enable
LLMs to answer many different types of causal questions for greater impact but
also enable LLMs to be more trustworthy and efficient in general.
- Abstract(参考訳): 3種類の因果的質問に対する強みと弱みを分析することにより,大言語モデル(llm)が因果的質問に答える能力を評価する。
現在のLLMは、既存の因果的知識とドメインエキスパートの組み合わせによる因果的疑問に答えられると考えている。
しかし,新たな知識の発見や高精度な意思決定作業には,まだ満足のいく回答が得られていない。
本稿では,明示的かつ暗黙的な因果モジュールの実現や,深い因果認識llmの実現など,今後の方向性と機会について論じる。
これは、llmが多くの異なる種類の因果的質問に答えることを可能にするだけでなく、llmがより信頼性と効率性を高めることを可能にする。
関連論文リスト
- Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When
and What to Retrieve for LLMs [64.0049955128318]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Direct Evaluation of Chain-of-Thought in Multi-hop Reasoning with
Knowledge Graphs [55.05394799820403]
大規模言語モデル(LLM)は、回答とともにチェーン・オブ・シントの説明を生成するよう促されたとき、強い推論能力を示す。
本稿では,LLMの推論知識と生成したCoTの精度を評価するために,新しい識別的・生成的CoT評価パラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-17T05:22:56Z) - When LLMs Meet Cunning Questions: A Fallacy Understanding Benchmark for
Large Language Models [62.42534500424585]
本稿では,人間が理解し易いが,理解し難い質問を含むファラッキー理解ベンチマークを提案する。
具体的には、FLUBが焦点を当てている不気味な質問は、主に、実際のインターネット環境から収集されたトリッキーでユーモラスで誤解を招く質問から成り立っている。
LLMの誤り理解能力を評価するために,FLUBベンチマークの難易度を高める3つのタスクを設計する。
論文 参考訳(メタデータ) (2024-02-16T22:12:53Z) - Is Knowledge All Large Language Models Needed for Causal Reasoning? [12.898859965556698]
本稿では,大規模言語モデル(LLM)の因果推論について,人工知能の進化における解釈可能性と信頼性を高めるために検討する。
本稿では,「do-operators」を用いた新たな因果帰属モデルを提案する。
論文 参考訳(メタデータ) (2023-12-30T04:51:46Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Learn to Refuse: Making Large Language Models More Controllable and Reliable through Knowledge Scope Limitation and Refusal Mechanism [0.0]
大規模言語モデル(LLM)は印象的な言語理解と生成能力を示している。
これらのモデルは欠陥がなく、しばしばエラーや誤報を含む応答を生成する。
本稿では,LLMに対して,誤りを避けるために,難解な質問への回答を拒否するように指示する拒絶機構を提案する。
論文 参考訳(メタデータ) (2023-11-02T07:20:49Z) - Learning To Teach Large Language Models Logical Reasoning [33.88499005859982]
大規模言語モデル(LLM)は、学術と産業の両方から大きな注目を集めている。
しかし、現在のLLMは、その固有の問題のために、実用的な推論タスクにおいて信頼性の低いコンテンツを出力している。
論文 参考訳(メタデータ) (2023-10-13T14:53:06Z) - Investigating the Factual Knowledge Boundary of Large Language Models
with Retrieval Augmentation [91.30946119104111]
大規模言語モデル(LLM)は,質問に応答する能力に対して,波及しない自信を持っていることを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
また, LLM は, 回答の定式化に際し, 提案した検索結果に依存する傾向が認められた。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。