論文の概要: A Survey on Enhancing Causal Reasoning Ability of Large Language Models
- arxiv url: http://arxiv.org/abs/2503.09326v1
- Date: Wed, 12 Mar 2025 12:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:40:27.648890
- Title: A Survey on Enhancing Causal Reasoning Ability of Large Language Models
- Title(参考訳): 大規模言語モデルの因果推論能力向上に関する調査研究
- Authors: Xin Li, Zhuo Cai, Shoujin Wang, Kun Yu, Fang Chen,
- Abstract要約: 大規模言語モデル(LLM)は、最近、言語タスク以降で顕著なパフォーマンスを示している。
LLMは、医療や経済分析などの堅牢な因果推論能力を必要とするタスクを扱う上で、依然として課題に直面している。
本稿では,LLMの因果推論能力の強化に関する文献を体系的にレビューする。
- 参考スコア(独自算出の注目度): 15.602788561902038
- License:
- Abstract: Large language models (LLMs) have recently shown remarkable performance in language tasks and beyond. However, due to their limited inherent causal reasoning ability, LLMs still face challenges in handling tasks that require robust causal reasoning ability, such as health-care and economic analysis. As a result, a growing body of research has focused on enhancing the causal reasoning ability of LLMs. Despite the booming research, there lacks a survey to well review the challenges, progress and future directions in this area. To bridge this significant gap, we systematically review literature on how to strengthen LLMs' causal reasoning ability in this paper. We start from the introduction of background and motivations of this topic, followed by the summarisation of key challenges in this area. Thereafter, we propose a novel taxonomy to systematically categorise existing methods, together with detailed comparisons within and between classes of methods. Furthermore, we summarise existing benchmarks and evaluation metrics for assessing LLMs' causal reasoning ability. Finally, we outline future research directions for this emerging field, offering insights and inspiration to researchers and practitioners in the area.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、言語タスク以降で顕著なパフォーマンスを示している。
しかし, LLMは因果推論能力に限界があるため, 医療や経済分析など, 因果推論能力の強い課題に直面する。
その結果,LSMの因果推論能力の向上に焦点が当てられている。
急成長する研究にもかかわらず、この分野の課題、進歩、今後の方向性を精査する調査が欠如している。
この大きなギャップを埋めるために,本論文ではLLMの因果推論能力を強化する方法について,文献を体系的にレビューする。
このトピックの背景とモチベーションの導入から始まり、続いてこの分野における重要な課題の要約を行います。
その後,既存の手法を体系的に分類する新たな分類法を提案し,メソッドのクラス内およびクラス間の詳細な比較を行った。
さらに,LLMの因果推論能力を評価するために,既存のベンチマークと評価指標を要約する。
最後に、この新興分野の今後の研究方向性について概説し、この分野の研究者や実践者に洞察とインスピレーションを提供する。
関連論文リスト
- Advancing Reasoning in Large Language Models: Promising Methods and Approaches [0.0]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて著しく成功している。
複雑な推論スパンニング論理推論、数学的問題解決、コモンセンス推論、そして多段階推論を実行する能力は、人間の期待に届かない。
本調査は, LLMにおける推論向上技術に関する総合的なレビューを提供する。
論文 参考訳(メタデータ) (2025-02-05T23:31:39Z) - Can Large Language Models Act as Symbolic Reasoners? [0.0]
大規模言語モデル(LLM)は印象的だが、彼らのプロセスと結論を推論できないと批判されている。
本稿では,記号的推論とLLMに関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-10-28T20:01:50Z) - CausalEval: Towards Better Causal Reasoning in Language Models [16.55801836321059]
因果推論(CR)は知性の重要な側面であり、問題解決、意思決定、世界理解に不可欠である。
言語モデル(LM)は出力に対して有理性を生成することができるが、因果推論を確実に行う能力はいまだに不確実である。
因果推論のためのLMの強化を目的とした研究のレビューであるCausalEvalを紹介する。
論文 参考訳(メタデータ) (2024-10-22T04:18:19Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - From Pre-training Corpora to Large Language Models: What Factors Influence LLM Performance in Causal Discovery Tasks? [51.42906577386907]
本研究では,因果発見タスクにおけるLarge Language Models(LLM)の性能に影響を与える要因について検討する。
因果関係の頻度が高いことは、より良いモデル性能と相関し、トレーニング中に因果関係の情報に広範囲に暴露することで、因果関係の発見能力を高めることを示唆している。
論文 参考訳(メタデータ) (2024-07-29T01:45:05Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Beyond Accuracy: Evaluating the Reasoning Behavior of Large Language Models -- A Survey [25.732397636695882]
大規模言語モデル(LLM)は、最近、推論を含むタスクで顕著なパフォーマンスを示している。
これらの成功にもかかわらず、LLMの推論能力の深さは未だ不明である。
論文 参考訳(メタデータ) (2024-04-02T11:46:31Z) - A Survey of Table Reasoning with Large Language Models [55.2326738851157]
大規模言語モデル(LLM)の使用は、テーブル推論の主流となる。
LLM時代におけるテーブル推論性能の向上に使用される主流技術について分析する。
本研究は,既存手法の改良と実用化の拡充の両面から研究の方向性を示す。
論文 参考訳(メタデータ) (2024-02-13T07:17:52Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Towards Reasoning in Large Language Models: A Survey [11.35055307348939]
大規模な言語モデル(LLM)がどの程度推論できるのかは、まだ明らかになっていない。
本稿では,LLMにおける推論に関する知識の現状を概観する。
論文 参考訳(メタデータ) (2022-12-20T16:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。