論文の概要: Stepwise Informativeness Search for Improving LLM Reasoning
- arxiv url: http://arxiv.org/abs/2502.15335v1
- Date: Fri, 21 Feb 2025 09:39:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:09:52.472084
- Title: Stepwise Informativeness Search for Improving LLM Reasoning
- Title(参考訳): LLM推論改善のためのステップワイズインフォーマティブ検索
- Authors: Siyuan Wang, Enda Zhao, Zhongyu Wei, Xiang Ren,
- Abstract要約: 最近の研究によると、Large Language Models (LLM) は長いコンテキストの途中で焦点を失う傾向にある。
より正確かつ簡潔なステップ・バイ・ステップの合理性を生成するために, LLM を導くことを提案する。
- 参考スコア(独自算出の注目度): 49.85349030928302
- License:
- Abstract: Advances in Large Language Models (LLMs) have significantly improved multi-step reasoning through generating free-text rationales. However, recent studies show that LLMs tend to lose focus over the middle of long contexts. This raises concerns that as reasoning progresses, LLMs may overlook information in earlier steps when decoding subsequent steps, leading to generate unreliable and redundant rationales. To address this, we propose guiding LLMs to generate more accurate and concise step-by-step rationales by (1) proactively referencing information from underutilized prior steps, and (2) minimizing redundant information between new and existing steps. We introduce stepwise informativeness search, an inference-time tree search framework incorporating two selection heuristics: grounding-guided selection which prioritizes steps paying higher attention over underutilized steps; and novelty-guided selection which encourages steps with novel conclusions. During rationale generation, we use a self-grounding strategy that prompts LLMs to explicitly reference relevant prior steps to provide premises before deduction at each step. Experimental results on four reasoning datasets demonstrate that our approach improves reasoning accuracy by generating higher-quality rationales with reduced errors and redundancy.
- Abstract(参考訳): LLM(Large Language Models)の進歩は、自由文論理を生成することで、多段階推論を大幅に改善した。
しかし、最近の研究では、LLMは長いコンテキストの途中で焦点を失う傾向があることが示されている。
このことは、推論が進むにつれて、LCMは後続のステップを復号する前のステップで情報を見落とし、信頼できない、冗長な合理性を生成するという懸念を引き起こす。
そこで本稿では,(1)未使用の事前ステップからの情報を積極的に参照し,(2)新規ステップと既存ステップ間の冗長情報を最小化することにより,より正確で簡潔なステップバイステップ論理を生成するためのLCMの誘導を提案する。
本稿では,2つの選択ヒューリスティックを取り入れた推定時木探索フレームワーク,未利用ステップよりも高い注意を払わせるステップを優先する接地誘導選択と,新規な結論を伴うステップを奨励する新規誘導選択を導入する。
合理的な生成では、各ステップで推論する前に前提を提供するために、LCMに関連した事前ステップを明示的に参照するよう促すセルフグラウンド戦略を用いる。
4つの推論データセットの実験結果から,提案手法は誤りや冗長性を低減した高品質な有理数を生成することにより推論精度を向上することを示した。
関連論文リスト
- Investigating the Shortcomings of LLMs in Step-by-Step Legal Reasoning [34.427730009102966]
推論誤りを特定し,LLMの性能を評価するための自動評価フレームワークを開発した。
我々の研究は、論理集約的な複雑なタスクに対する推論チェーンの詳細なエラー解析に使用できる評価フレームワークとしても機能する。
論文 参考訳(メタデータ) (2025-02-08T19:49:32Z) - Premise-Augmented Reasoning Chains Improve Error Identification in Math reasoning with LLMs [10.373838332986738]
大型言語モデル(LLM)の数学的推論を促進させるチェーン・オブ・ソート(CoT)
本稿では,各ステップの前提を識別し,推論の評価を改善するためのフレームワークを提案する。
本研究は,複雑な問題解決課題に対処する前提中心表現の有用性を強調した。
論文 参考訳(メタデータ) (2025-02-04T14:44:58Z) - Step-KTO: Optimizing Mathematical Reasoning through Stepwise Binary Feedback [94.25162866972077]
Step-KTOは、プロセスレベルと結果レベルのバイナリフィードバックを組み合わせたトレーニングフレームワークである。
実験の結果,Step-KTOは最終回答の精度と中間推論の質の両方を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-18T15:38:03Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - First Heuristic Then Rational: Dynamic Use of Heuristics in Language Model Reasoning [26.732781911221636]
より優れた言語性能を探求するために多段階推論命令が広く採用されている。
我々は,このような多段階推論プロセスにおいて,LMが採用する体系的戦略について報告する。
論文 参考訳(メタデータ) (2024-06-23T11:11:46Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Information Re-Organization Improves Reasoning in Large Language Models [22.2946033364035]
大規模言語モデル(LLM)の推論能力を高める情報再構成(InfoRE)手法を提案する。
本手法では,文書や段落などの文脈的内容から論理的関係を抽出し,ノイズを最小限に抑えるために冗長な内容を抽出する。
Llama2-70B, GPT-3.5, GPT-4 を用いて, 各種マルチホップ推論タスクにおいて, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-04-22T08:47:27Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。