論文の概要: First Step Advantage: Importance of Starting Right in Multi-Step
Reasoning
- arxiv url: http://arxiv.org/abs/2311.07945v1
- Date: Tue, 14 Nov 2023 06:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 15:17:16.862876
- Title: First Step Advantage: Importance of Starting Right in Multi-Step
Reasoning
- Title(参考訳): 第1ステップアドバンテージ: 多段階推論における正しい出発の重要性
- Authors: Kushal Jain, Kumar Shridhar
- Abstract要約: 大規模言語モデル(LLM)は、予測の合理性を生成することで複雑な推論タスクを解くことができる。
LLMはより小さなモデルをガイドし、適切なタイミングで介入した場合にのみ正しい推論経路に戻すことができることを示す。
より小さなモデルでは、プロセスの開始が困難であることや、正しい方向に導くことは、パフォーマンスの100%以上の向上につながる可能性があることが示されています。
- 参考スコア(独自算出の注目度): 12.083499752124649
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) can solve complex reasoning tasks by generating
rationales for their predictions. Distilling these capabilities into a smaller,
compact model can facilitate the creation of specialized, cost-effective models
tailored for specific tasks. However, smaller models often face challenges in
complex reasoning tasks and often deviate from the correct reasoning path. We
show that LLMs can guide smaller models and bring them back to the correct
reasoning path only if they intervene at the right time. We show that smaller
models fail to reason primarily due to their difficulty in initiating the
process, and that guiding them in the right direction can lead to a performance
gain of over 100%. We explore different model sizes and evaluate the benefits
of providing guidance to improve reasoning in smaller models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、予測の合理性を生成することで複雑な推論タスクを解くことができる。
これらの機能をより小さくコンパクトなモデルに拡張することで、特定のタスクに適した専門的で費用対効果の高いモデルを作成することができる。
しかし、小さなモデルは複雑な推論タスクでしばしば問題に直面し、正しい推論パスから逸脱することが多い。
LLMはより小さなモデルをガイドし、適切なタイミングで介入した場合にのみ正しい推論経路に戻すことができることを示す。
プロセス開始の難しさが原因で,より小さなモデルでは理屈に合わないこと,適切な方向に導くことが100%以上のパフォーマンス向上につながること,などが示されている。
異なるモデルサイズを調査し、より小さなモデルの推論を改善するためのガイダンスを提供することの利点を評価します。
関連論文リスト
- Distilling Algorithmic Reasoning from LLMs via Explaining Solution Programs [2.3020018305241337]
大きな言語モデルの推論能力を改善する効果的な方法として、明確な推論経路を蒸留する手法が登場している。
本稿では, LLM から推論能力を抽出する手法を提案する。
提案実験は,ReasonerがCoderによるプログラム実装をより効果的にガイドできることを示す。
論文 参考訳(メタデータ) (2024-04-11T22:19:50Z) - Can Small Language Models Help Large Language Models Reason Better?: LM-Guided Chain-of-Thought [51.240387516059535]
タスク推論において,ブラックボックスの大きな (>10B) LMを導くために,軽量 (すなわち 1B) 言語モデル (LM) を利用する新しいフレームワーク LM-Guided CoT を導入する。
1)知識蒸留と2)合理性指向とタスク指向の報酬信号からの強化学習を通してモデルを最適化する。
論文 参考訳(メタデータ) (2024-04-04T12:46:37Z) - GSM-Plus: A Comprehensive Benchmark for Evaluating the Robustness of
LLMs as Mathematical Problem Solvers [73.78371810664319]
大規模言語モデル (LLM) は、様々な数学的推論ベンチマークで顕著な性能を達成している。
1つの必須かつ頻繁な証拠は、数学の質問がわずかに変更されたとき、LLMは誤って振る舞うことができることである。
このことは, LLMの数学推論能力の頑健性を評価するために, 幅広い質問のバリエーションを試すことによるものである。
論文 参考訳(メタデータ) (2024-02-29T15:26:14Z) - Understanding the Reasoning Ability of Language Models From the
Perspective of Reasoning Paths Aggregation [117.32019595678771]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびMWPデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - PuzzleBench: Can LLMs Solve Challenging First-Order Combinatorial
Reasoning Problems? [27.696027301600793]
本稿では,31の課題のデータセットであるPuzzleBenchについて紹介する。
これらの問題は、すべて第一次、すなわち、様々な大きさの問題のインスタンスでインスタンス化でき、そのほとんどはNPハードである。
まず,LLMがシンボリック・ソルバによって支援されても,データセット上ではかなり低性能であることを示す。
そこで本研究では,LLMとシンボルソルバとインタプリタを組み合わせた新しいアプローチであるPuzzle-LMを提案する。
論文 参考訳(メタデータ) (2024-02-04T20:56:09Z) - DCR: Divide-and-Conquer Reasoning for Multi-choice Question Answering with LLMs [9.561022942046279]
大規模言語モデル(LLM)の推論能力を高めるため,DCR(Divide and Conquer Reasoning)を提案する。
まず、信頼性スコア(mathcalCS$)に基づいて質問を2つのサブセットに分類する。
特に,質問を信頼性スコア(mathcalCS$)に基づいて2つのサブセットに分類する。
論文 参考訳(メタデータ) (2024-01-10T14:38:46Z) - Guiding Language Model Math Reasoning with Planning Tokens [128.57605860640948]
各推論ステップの開始時に計画トークンを導入し、モデルのガイドとして機能し、モデルパラメータにそれらの埋め込みを追加する。
提案手法では、トレーニング可能なパラメータ(わずか0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - GRACE: Discriminator-Guided Chain-of-Thought Reasoning [75.35436025709049]
本稿では, 正しい推論手順を導出するために, GRACE (CorrectnEss Discriminator) を用いたチェーン・オブ・シークレット・リAsoningを提案する。
GRACEは、正しいステップと間違ったステップに対して対照的な損失で訓練された判別器を採用しており、復号時に次のステップ候補を採点するために使用される。
論文 参考訳(メタデータ) (2023-05-24T09:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。