論文の概要: A Survey on Enhancing Causal Reasoning Ability of Large Language Models
- arxiv url: http://arxiv.org/abs/2503.09326v1
- Date: Wed, 12 Mar 2025 12:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 21:17:52.739963
- Title: A Survey on Enhancing Causal Reasoning Ability of Large Language Models
- Title(参考訳): 大規模言語モデルの因果推論能力向上に関する調査研究
- Authors: Xin Li, Zhuo Cai, Shoujin Wang, Kun Yu, Fang Chen,
- Abstract要約: 大規模言語モデル(LLM)は、最近、言語タスク以降で顕著なパフォーマンスを示している。
LLMは、医療や経済分析などの堅牢な因果推論能力を必要とするタスクを扱う上で、依然として課題に直面している。
本稿では,LLMの因果推論能力の強化に関する文献を体系的にレビューする。
- 参考スコア(独自算出の注目度): 15.602788561902038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have recently shown remarkable performance in language tasks and beyond. However, due to their limited inherent causal reasoning ability, LLMs still face challenges in handling tasks that require robust causal reasoning ability, such as health-care and economic analysis. As a result, a growing body of research has focused on enhancing the causal reasoning ability of LLMs. Despite the booming research, there lacks a survey to well review the challenges, progress and future directions in this area. To bridge this significant gap, we systematically review literature on how to strengthen LLMs' causal reasoning ability in this paper. We start from the introduction of background and motivations of this topic, followed by the summarisation of key challenges in this area. Thereafter, we propose a novel taxonomy to systematically categorise existing methods, together with detailed comparisons within and between classes of methods. Furthermore, we summarise existing benchmarks and evaluation metrics for assessing LLMs' causal reasoning ability. Finally, we outline future research directions for this emerging field, offering insights and inspiration to researchers and practitioners in the area.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、言語タスク以降で顕著なパフォーマンスを示している。
しかし, LLMは因果推論能力に限界があるため, 医療や経済分析など, 因果推論能力の強い課題に直面する。
その結果,LSMの因果推論能力の向上に焦点が当てられている。
急成長する研究にもかかわらず、この分野の課題、進歩、今後の方向性を精査する調査が欠如している。
この大きなギャップを埋めるために,本論文ではLLMの因果推論能力を強化する方法について,文献を体系的にレビューする。
このトピックの背景とモチベーションの導入から始まり、続いてこの分野における重要な課題の要約を行います。
その後,既存の手法を体系的に分類する新たな分類法を提案し,メソッドのクラス内およびクラス間の詳細な比較を行った。
さらに,LLMの因果推論能力を評価するために,既存のベンチマークと評価指標を要約する。
最後に、この新興分野の今後の研究方向性について概説し、この分野の研究者や実践者に洞察とインスピレーションを提供する。
関連論文リスト
- A Call for New Recipes to Enhance Spatial Reasoning in MLLMs [85.67171333213301]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - Causality for Natural Language Processing [17.681875945732042]
因果推論は人間の知性の基礎であり、人工システムにとって重要な能力である。
この論文は、大きな言語モデルにおける因果推論と理解の様々な次元に展開する。
論文 参考訳(メタデータ) (2025-04-20T08:11:11Z) - A Survey of Efficient Reasoning for Large Reasoning Models: Language, Multimodality, and Beyond [88.5807076505261]
大規模推論モデル (LRM) は, 推論中におけるチェーン・オブ・ソート (CoT) の推論長を拡大することにより, 高い性能向上を示した。
懸念が高まっているのは、過度に長い推論の痕跡を生み出す傾向にある。
この非効率性は、トレーニング、推論、現実のデプロイメントに重大な課題をもたらす。
論文 参考訳(メタデータ) (2025-03-27T15:36:30Z) - Can Large Language Models Act as Symbolic Reasoners? [0.0]
大規模言語モデル(LLM)は印象的だが、彼らのプロセスと結論を推論できないと批判されている。
本稿では,記号的推論とLLMに関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-10-28T20:01:50Z) - CausalEval: Towards Better Causal Reasoning in Language Models [16.55801836321059]
因果推論(CR)は知性の重要な側面であり、問題解決、意思決定、世界理解に不可欠である。
言語モデル(LM)は出力に対して有理性を生成することができるが、因果推論を確実に行う能力はいまだに不確実である。
因果推論のためのLMの強化を目的とした研究のレビューであるCausalEvalを紹介する。
論文 参考訳(メタデータ) (2024-10-22T04:18:19Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Beyond Accuracy: Evaluating the Reasoning Behavior of Large Language Models -- A Survey [25.732397636695882]
大規模言語モデル(LLM)は、最近、推論を含むタスクで顕著なパフォーマンスを示している。
これらの成功にもかかわらず、LLMの推論能力の深さは未だ不明である。
論文 参考訳(メタデータ) (2024-04-02T11:46:31Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Towards Reasoning in Large Language Models: A Survey [11.35055307348939]
大規模な言語モデル(LLM)がどの程度推論できるのかは、まだ明らかになっていない。
本稿では,LLMにおける推論に関する知識の現状を概観する。
論文 参考訳(メタデータ) (2022-12-20T16:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。