論文の概要: Well begun is half done: Importance of Starting Right in Multi-Step Math
Reasoning
- arxiv url: http://arxiv.org/abs/2311.07945v2
- Date: Tue, 20 Feb 2024 21:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 19:51:32.538464
- Title: Well begun is half done: Importance of Starting Right in Multi-Step Math
Reasoning
- Title(参考訳): well started is half done: 多段階数学推論における正しいスタートの重要性
- Authors: Kushal Jain, Niket Tandon, Kumar Shridhar
- Abstract要約: より小さなモデルでは、正しく開始するのに苦労することがあるが、修正された場合には、そうでなければ苦労するであろうタスクを解決できることが示される。
より小さなモデルが初期ガイダンスの恩恵を受けるための2つの方法を提案する。
- 参考スコア(独自算出の注目度): 13.775353090406455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smaller language models can solve complex reasoning tasks better by learning
to generate rationales for their predictions. However, we observe that these
smaller models can sometimes struggle to start correctly, but when corrected,
can solve a task that they would otherwise have struggled with. We propose two
ways in which a smaller model can benefit from initial guidance: 1) asking an
LLM for initial guidance, and 2) self-questioning guidance, where the student
model can first initiate a question regarding how to start and then continue
that chain. We extend initial question-based guidance to a prompting technique
called QuestCoT, where starting with a question before a chain of reasoning
proves useful. On two multi-step math reasoning datasets GSM8K and SVAMP, we
show that starting correctly can lead to a significant performance gain (up to
$+14$ points with LLM guidance and $+6$ points with QuestCoT).
- Abstract(参考訳): より小さな言語モデルは、予測の根拠を生成するために学習することで、複雑な推論タスクをよりよく解くことができる。
しかしながら、これらの小さなモデルが正しく開始するのに苦労することがあるが、修正された場合、それ以外は苦労したであろう課題を解決できる。
我々は、小さいモデルが最初のガイダンスから恩恵を受ける2つの方法を提案する。
1) LLM に初期指導を依頼し,
2) 自己問合せ指導では,まず学生モデルが,その連鎖の開始と継続に関する質問を開始することができる。
我々は、最初の質問ベースのガイダンスをQuestCoTと呼ばれるプロンプト技術に拡張し、推論の連鎖の前に質問から始めることが有用であることを証明した。
GSM8K と SVAMP の2つの多段階の算数推論データセットでは、正しいスタートは大きなパフォーマンス向上につながる(LLM ガイダンスで$14$ と QuestCoT で $6$ )。
関連論文リスト
- Nudging: Inference-time Alignment via Model Collaboration [18.530367090350605]
我々は,任意のベースモデルを小さなアライメントモデルを用いて推論時に整列するプラグアンドプレイアルゴリズムであるnudgingを提案する。
看護は、アライメントがスタイリスティックトークンの小さなサブセット上でのモデルの振る舞いを主に変えるという最近の発見によって動機付けられている。
3つのモデルファミリーと13のタスクにまたがるヌードの有効性を評価し、推論、一般的な知識、指示追従、安全性ベンチマークについて検討した。
論文 参考訳(メタデータ) (2024-10-11T23:24:38Z) - SuperCorrect: Supervising and Correcting Language Models with Error-Driven Insights [89.56181323849512]
より小規模な学生モデルの推論と反映の両方を教師モデルを用いて監督し,修正するフレームワークであるSuperCorrectを提案する。
第1段階では、教師モデルから階層的な高レベルかつ詳細な思考テンプレートを抽出し、よりきめ細かい推論思考を導き出す学生モデルを指導する。
第2段階では、学生モデルの自己補正能力を高めるために、クロスモデル協調直接選好最適化(DPO)を導入する。
論文 参考訳(メタデータ) (2024-10-11T17:25:52Z) - What Matters for Model Merging at Scale? [94.26607564817786]
モデルマージは、複数の専門家モデルとより有能な単一モデルを組み合わせることを目的としている。
これまでの研究は主に、いくつかの小さなモデルをマージすることに焦点を当ててきた。
本研究は,大規模モデルマージの有用性を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-04T17:17:19Z) - Teaching Language Models to Self-Improve through Interactive Demonstrations [83.9421355808174]
大規模言語モデルの自己改善能力は欠如しており、より小さなモデルで学ぶことは困難である。
このような自己改善能力を持つ小型モデルのトレーニングアルゴリズムであるTriPosTを導入する。
我々は,LLaMA-7bの算数および推論タスクの性能を最大7.13%向上させることができることを示す。
論文 参考訳(メタデータ) (2023-10-20T14:11:04Z) - eP-ALM: Efficient Perceptual Augmentation of Language Models [70.47962271121389]
本稿では,既存モデルの適応性を向上するための直接的な取り組みを提案し,認識を伴う言語モデルの拡張を提案する。
視覚言語タスクに事前訓練されたモデルを適用するための既存のアプローチは、その効率を妨げているいくつかの重要なコンポーネントに依存している。
総パラメータの99%以上を凍結し,1つの直線射影層のみをトレーニングし,1つのトレーニング可能なトークンのみを予測することにより,我々のアプローチ(eP-ALM)は,VQAとCaptioningの他のベースラインよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2023-03-20T19:20:34Z) - Voting from Nearest Tasks: Meta-Vote Pruning of Pre-trained Models for
Downstream Tasks [55.431048995662714]
我々は、類似タスクの刈り取られたモデルから、新しいタスクのための小さなモデルを作成する。
このモデルに関するいくつかの微調整ステップは、新しいタスクに対して有望なプルーンドモデルを生成するのに十分であることを示す。
我々は, 単純だが効果的な'Meta-Vote Pruning (MVP)' 手法を開発した。
論文 参考訳(メタデータ) (2023-01-27T06:49:47Z) - Large Language Models Are Reasoning Teachers [9.290757451344673]
ファインチューンCoTは、非常に大きな教師モデルからより小さなモデルへの推論サンプルを生成する方法である。
また,Fin-Tune-CoTは,多くのタスクにおいて,プロンプトベースベースラインや教師モデルよりもはるかに優れた小型モデルにおいて,相当な推論能力を実現する。
論文 参考訳(メタデータ) (2022-12-20T08:24:45Z) - Distilling Reasoning Capabilities into Smaller Language Models [83.66051257039763]
思考の連鎖(CoT)のようなステップバイステップの推論アプローチは、大規模言語モデルにおける推論能力の誘導に非常に効果的であることが証明されている。
しかし、CoTアプローチの成功は基本的にモデルのサイズに結びついており、CoTを機能させるためには数十億のパラメータスケールモデルが必要であることが多い。
本研究では,大規模モデルのCoT推論能力を段階的に活用し,これらの能力をより小さなモデルに蒸留する知識蒸留手法を提案する。
論文 参考訳(メタデータ) (2022-12-01T00:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。