論文の概要: Understanding Causality with Large Language Models: Feasibility and
Opportunities
- arxiv url: http://arxiv.org/abs/2304.05524v1
- Date: Tue, 11 Apr 2023 22:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 16:35:48.327863
- Title: Understanding Causality with Large Language Models: Feasibility and
Opportunities
- Title(参考訳): 大規模言語モデルによる因果関係の理解:可能性と機会
- Authors: Cheng Zhang, Stefan Bauer, Paul Bennett, Jiangfeng Gao, Wenbo Gong,
Agrin Hilmkil, Joel Jennings, Chao Ma, Tom Minka, Nick Pawlowski, James
Vaughan
- Abstract要約: 我々は,大言語モデル(LLM)の強みと弱みを分析し,因果的疑問に答える能力を評価する。
我々は,明示的かつ暗黙的な因果的加群の実現など,今後の方向性や可能性について議論する。
- 参考スコア(独自算出の注目度): 23.68197884888299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We assess the ability of large language models (LLMs) to answer causal
questions by analyzing their strengths and weaknesses against three types of
causal question. We believe that current LLMs can answer causal questions with
existing causal knowledge as combined domain experts. However, they are not yet
able to provide satisfactory answers for discovering new knowledge or for
high-stakes decision-making tasks with high precision. We discuss possible
future directions and opportunities, such as enabling explicit and implicit
causal modules as well as deep causal-aware LLMs. These will not only enable
LLMs to answer many different types of causal questions for greater impact but
also enable LLMs to be more trustworthy and efficient in general.
- Abstract(参考訳): 3種類の因果的質問に対する強みと弱みを分析することにより,大言語モデル(llm)が因果的質問に答える能力を評価する。
現在のLLMは、既存の因果的知識とドメインエキスパートの組み合わせによる因果的疑問に答えられると考えている。
しかし,新たな知識の発見や高精度な意思決定作業には,まだ満足のいく回答が得られていない。
本稿では,明示的かつ暗黙的な因果モジュールの実現や,深い因果認識llmの実現など,今後の方向性と機会について論じる。
これは、llmが多くの異なる種類の因果的質問に答えることを可能にするだけでなく、llmがより信頼性と効率性を高めることを可能にする。
関連論文リスト
- Improving Causal Reasoning in Large Language Models: A Survey [16.55801836321059]
因果推論は知性の重要な側面であり、問題解決、意思決定、世界理解に不可欠である。
大規模言語モデル(LLM)は出力に対して有理性を生成することができるが、因果推論を確実に行う能力は未だ不明である。
論文 参考訳(メタデータ) (2024-10-22T04:18:19Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Is Knowledge All Large Language Models Needed for Causal Reasoning? [11.476877330365664]
本稿では,大規模言語モデル(LLM)の因果推論について,人工知能の進化における解釈可能性と信頼性を高めるために検討する。
本稿では,do-operativesを利用した新たな因果帰属モデルを提案する。
論文 参考訳(メタデータ) (2023-12-30T04:51:46Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Learn to Refuse: Making Large Language Models More Controllable and Reliable through Knowledge Scope Limitation and Refusal Mechanism [0.0]
大規模言語モデル(LLM)は印象的な言語理解と生成能力を示している。
これらのモデルは欠陥がなく、しばしばエラーや誤報を含む応答を生成する。
本稿では,LLMに対して,誤りを避けるために,難解な質問への回答を拒否するように指示する拒絶機構を提案する。
論文 参考訳(メタデータ) (2023-11-02T07:20:49Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。