論文の概要: From Indeterminacy to Determinacy: Augmenting Logical Reasoning
Capabilities with Large Language Models
- arxiv url: http://arxiv.org/abs/2310.18659v1
- Date: Sat, 28 Oct 2023 10:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:21:01.867093
- Title: From Indeterminacy to Determinacy: Augmenting Logical Reasoning
Capabilities with Large Language Models
- Title(参考訳): 決定性から決定性へ:大規模言語モデルによる論理推論能力の強化
- Authors: Hongda Sun, Weikai Xu, Wei Liu, Jian Luan, Bin Wang, Shuo Shang,
Ji-Rong Wen, Rui Yan
- Abstract要約: DetermLRは、推論プロセスを非決定的な前提から非決定的な前提へと転換する過程として定式化する、新しい推論フレームワークである。
DetermLRは、訪問する状態を少なくし、論理的推論タスクに対処する上で、その優れた効率性と有効性を強調しながら、より良い推論性能を達成することができる。
- 参考スコア(独自算出の注目度): 79.88472218252224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in LLMs have revolutionized the landscape of reasoning tasks.
To enhance the capabilities of LLMs to emulate human reasoning, prior works
focus on modeling reasoning steps using specific thought structures like
chains, trees, or graphs. However, LLM-based reasoning continues to encounter
three challenges: 1) Selecting appropriate reasoning structures for various
tasks; 2) Exploiting known conditions sufficiently and efficiently to deduce
new insights; 3) Considering the impact of historical reasoning experience. To
address these challenges, we propose DetermLR, a novel reasoning framework that
formulates the reasoning process as a transformational journey from
indeterminate premises to determinate ones. This process is marked by the
incremental accumulation of determinate premises, making the conclusion
progressively closer to clarity. DetermLR includes three essential components:
1) Premise identification: We categorize premises into two distinct types:
determinate and indeterminate. This empowers LLMs to customize reasoning
structures to match the specific task complexities. 2) Premise prioritization
and exploration: We leverage quantitative measurements to assess the relevance
of each premise to the target, prioritizing more relevant premises for
exploring new insights. 3) Iterative process with reasoning memory: We
introduce a reasoning memory module to automate storage and extraction of
available premises and reasoning paths, preserving historical reasoning details
for more accurate premise prioritization. Comprehensive experimental results
show that DetermLR outperforms all baselines on four challenging logical
reasoning tasks: LogiQA, ProofWriter, FOLIO, and LogicalDeduction. DetermLR can
achieve better reasoning performance while requiring fewer visited states,
highlighting its superior efficiency and effectiveness in tackling logical
reasoning tasks.
- Abstract(参考訳): LLMの最近の進歩は推論タスクのランドスケープに革命をもたらした。
人間の推論をエミュレートするLLMの機能を強化するために、以前の研究は連鎖や木、グラフといった特定の思考構造を用いた推論ステップのモデリングに重点を置いていた。
しかし、LSMベースの推論は3つの課題に直面し続けている。
1) 各種業務に適切な推論構造を選択すること
2) 既知の条件を十分に効果的に活用し,新たな洞察を導き出す。
3) 歴史的推論経験の影響を考慮する。
これらの課題に対処するため,不定の前提から不定の前提への転換過程として推論過程を定式化する新しい推論フレームワークであるDetermLRを提案する。
このプロセスは、決定的前提の漸進的な蓄積によって特徴付けられ、結論は徐々に明確に近づきつつある。
DetermLRには3つの重要なコンポーネントがある。
1) 前提識別: 前提を2つの異なるタイプに分類する。
これにより、LLMは特定のタスクの複雑さに合わせて推論構造をカスタマイズできる。
2)優先順位付けと探索の優先順位付け:各前提の目標との関係を定量的に評価し、新たな洞察を探求するためのより関連する前提を優先順位付けする。
3)推論メモリを用いた反復処理:我々は,利用可能な前提と推論パスの記憶と抽出を自動化する推論メモリモジュールを導入し,より正確な前提優先順位付けのために,過去の推論詳細を保存する。
総合的な実験の結果,determlrはlogiqa, proofwriter, folio, logicaldeductionの4つの難しい論理推論タスクにおいて,すべてのベースラインを上回っている。
DetermLRは、訪問状態が少なくても推論性能が向上し、論理推論タスクに対処する際の効率性と有効性を強調している。
関連論文リスト
- Leveraging LLMs for Hypothetical Deduction in Logical Inference: A Neuro-Symbolic Approach [11.400815134634016]
本稿では,忠実な論理的推論のためのニューロシンボリックアプローチであるLINAを紹介する。
LLMが命題論理抽出から洗練された論理推論への移行を自律的に行えるようにすることで、LINAは推論プロセスのレジリエンスを高める。
実証的な評価は、LINAが確立された命題論理フレームワークと従来のプロンプト技術の両方を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-29T06:38:46Z) - Reversal of Thought: Enhancing Large Language Models with Preference-Guided Reverse Reasoning Warm-up [9.42385235462794]
大規模言語モデル(LLM)は、推論タスクにおいて顕著な性能を示すが、数学的および複雑な論理的推論において制限に直面している。
LLMの論理的推論能力の向上を目的とした新しいフレームワークであるReversal of Thought (RoT)を提案する。
RoT は Preference-Guided Reverse Reasoning warm-up 戦略を利用している。
論文 参考訳(メタデータ) (2024-10-16T07:44:28Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Are LLMs Rigorous Logical Reasoner? Empowering Natural Language Proof
Generation with Contrastive Stepwise Decoding [11.385103498440932]
本稿では,論理的推論のためのモデルの能力を高めるために,負の推論経路を用いることにより,ステップワイズな証明生成に対照的な復号を導入する。
EntailmentBankの実験は、言語モデルの計画能力を実証する上で、我々の手法の成功を裏付けている。
論文 参考訳(メタデータ) (2023-11-12T05:12:49Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Reason for Future, Act for Now: A Principled Framework for Autonomous
LLM Agents with Provable Sample Efficiency [53.8779374188643]
本稿では,推論と行動のオーケストレーションを行うための,証明可能な後悔の保証を備えた原則的枠組みを提案する。
具体的には、メモリバッファから学習する推論のためのプロンプトテンプレートを設計し、長い水平線上で将来の軌道を計画する。
各ステップにおいて、LLMエージェントは計画された軌跡の初期動作("act for now")を受け取り、収集したフィードバックをメモリバッファに格納し、推論ルーチンを再起動して、将来の軌跡を新しい状態から再設計する。
論文 参考訳(メタデータ) (2023-09-29T16:36:39Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。