論文の概要: Thinking Machines: A Survey of LLM based Reasoning Strategies
- arxiv url: http://arxiv.org/abs/2503.10814v1
- Date: Thu, 13 Mar 2025 19:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:08:02.480710
- Title: Thinking Machines: A Survey of LLM based Reasoning Strategies
- Title(参考訳): 思考機械:LLMに基づく推論方略の調査
- Authors: Dibyanayan Bandyopadhyay, Soham Bhattacharjee, Asif Ekbal,
- Abstract要約: LLM(Large Language Models)の推論は、これらのモデルがアクションやレスポンスを検討、再評価できるようにすることによって、このギャップを埋めることを目的としている。
推論は複雑な問題解決に必要な能力であり、人工知能(AI)への信頼を確立するために必要なステップである。
これによってAIは、医療、銀行、法律、防衛、セキュリティなど、機密性の高い分野への展開に適したものになります。
- 参考スコア(独自算出の注目度): 33.08089616645845
- License:
- Abstract: Large Language Models (LLMs) are highly proficient in language-based tasks. Their language capabilities have positioned them at the forefront of the future AGI (Artificial General Intelligence) race. However, on closer inspection, Valmeekam et al. (2024); Zecevic et al. (2023); Wu et al. (2024) highlight a significant gap between their language proficiency and reasoning abilities. Reasoning in LLMs and Vision Language Models (VLMs) aims to bridge this gap by enabling these models to think and re-evaluate their actions and responses. Reasoning is an essential capability for complex problem-solving and a necessary step toward establishing trust in Artificial Intelligence (AI). This will make AI suitable for deployment in sensitive domains, such as healthcare, banking, law, defense, security etc. In recent times, with the advent of powerful reasoning models like OpenAI O1 and DeepSeek R1, reasoning endowment has become a critical research topic in LLMs. In this paper, we provide a detailed overview and comparison of existing reasoning techniques and present a systematic survey of reasoning-imbued language models. We also study current challenges and present our findings.
- Abstract(参考訳): 言語モデル(LLM)は、言語に基づくタスクにおいて非常に熟練している。
彼らの言語能力は、将来のAGI(Artificial General Intelligence)レースの最前線に位置づけられている。
しかし、詳しく調べると、Valmeekam et al (2024年)、Zecevic et al (2023年)、Wu et al (2024年)は、彼らの言語能力と推論能力の間に大きなギャップがある。
LLMとビジョン言語モデル(VLM)における推論は、これらのモデルが行動や反応を考え、再評価できるようにすることによって、このギャップを埋めることを目的としている。
推論は複雑な問題解決に必要な能力であり、人工知能(AI)の信頼を確立するために必要なステップである。
これによってAIは、医療、銀行、法律、防衛、セキュリティなど、機密性の高い分野への展開に適したものになります。
近年、OpenAI O1やDeepSeek R1のような強力な推論モデルが出現し、推論の成果はLLMにおいて重要な研究トピックとなっている。
本稿では,既存の推論手法の詳細な概要と比較を行い,推論型言語モデルに関する体系的な調査を行う。
また,現在の課題について検討し,その結果を報告する。
関連論文リスト
- IOLBENCH: Benchmarking LLMs on Linguistic Reasoning [8.20398036986024]
IOL(International Linguistics Olympiad)問題に基づく新しいベンチマークであるIOLBENCHを紹介する。
このデータセットは、文法、形態学、音韻学、意味論をテストする様々な問題を含んでいる。
最も先進的なモデルでさえ、言語的な複雑さの複雑さを扱うのに苦労している。
論文 参考訳(メタデータ) (2025-01-08T03:15:10Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Proceedings of the First International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2024) [16.282850445579857]
推論は人間の知性の本質的な要素であり、批判的に考える能力において基本的な役割を果たす。
自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
言語モデルにおける推論について議論が続いているが、これらのモデルが実際に推論できる程度に注目することは容易ではない。
論文 参考訳(メタデータ) (2024-10-07T02:31:47Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Beyond Words: A Mathematical Framework for Interpreting Large Language
Models [8.534513717370434]
大規模言語モデル(LLM)は、自然言語テキストやその他の複雑な情報を生成し、理解することのできる強力なAIツールである。
我々は、幻覚、アライメント、自己検証、思考の連鎖推論など、LLM研究における重要な用語と概念を明確にするフレームワークであるHexを提案する。
我々は、生成AIシステムを構築する方法についての議論を進める上で、私たちの正式な定義と結果が不可欠であると主張する。
論文 参考訳(メタデータ) (2023-11-06T11:13:17Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。