論文の概要: Reverse That Number! Decoding Order Matters in Arithmetic Learning
- arxiv url: http://arxiv.org/abs/2403.05845v1
- Date: Sat, 9 Mar 2024 09:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:59:15.378358
- Title: Reverse That Number! Decoding Order Matters in Arithmetic Learning
- Title(参考訳): その番号を返せ!
算術学習における順序事項の復号化
- Authors: Daniel Zhang-Li, Nianyi Lin, Jifan Yu, Zheyuan Zhang, Zijun Yao,
Xiaokang Zhang, Lei Hou, Jing Zhang, Juanzi Li
- Abstract要約: 本研究は,最少の桁から出力を優先順位付けすることで,桁順を再評価する新たな戦略を導入する。
従来のSOTA法と比較すると,通常のトレーニングで使用するトークンの3分の1しか必要とせず,精度の全体的な改善が見られた。
- 参考スコア(独自算出の注目度): 49.5504492920404
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advancements in pretraining have demonstrated that modern Large
Language Models (LLMs) possess the capability to effectively learn arithmetic
operations. However, despite acknowledging the significance of digit order in
arithmetic computation, current methodologies predominantly rely on sequential,
step-by-step approaches for teaching LLMs arithmetic, resulting in a conclusion
where obtaining better performance involves fine-grained step-by-step.
Diverging from this conventional path, our work introduces a novel strategy
that not only reevaluates the digit order by prioritizing output from the least
significant digit but also incorporates a step-by-step methodology to
substantially reduce complexity. We have developed and applied this method in a
comprehensive set of experiments. Compared to the previous state-of-the-art
(SOTA) method, our findings reveal an overall improvement of in accuracy while
requiring only a third of the tokens typically used during training. For the
purpose of facilitating replication and further research, we have made our code
and dataset publicly available at
\url{https://anonymous.4open.science/r/RAIT-9FB7/}.
- Abstract(参考訳): プレトレーニングの最近の進歩は、現代の大規模言語モデル(LLM)が算術演算を効果的に学習する能力を持っていることを示している。
しかし、算術演算における桁順の重要性を認めつつも、現在の方法論はLLMの算術を教えるための逐次的なステップバイステップのアプローチに大きく依存しており、結果としてより優れた性能を得るにはステップバイステップの細かなステップバイステップが伴うという結論が導かれる。
本研究は, 従来の経路から逸脱し, 最小の桁から出力を優先順位付けすることで, 桁順を再評価するだけでなく, ステップバイステップの手法を導入し, 複雑さを大幅に軽減する。
我々はこの手法を総合的な実験に応用した。
従来のSOTA法と比較すると,通常のトレーニングで使用するトークンの3分の1しか必要とせず,精度の全体的な改善が見られた。
レプリケーションとさらなる研究を容易にするため、コードとデータセットを \url{https://anonymous.4open.science/r/RAIT-9FB7/} で公開しました。
関連論文リスト
- Improve Mathematical Reasoning in Language Models by Automated Process Supervision [22.72856086318912]
高品質プロセス監視データの効率的な収集のために,textitOmegaPRM という新しいモンテカルロ木探索アルゴリズムを提案する。
プロセスリワードモデル(PRM)をトレーニングするために、150万以上のプロセス監視アノテーションを収集することができます。
我々は,Gemini Proモデルの数学推論性能を改良し,MATHベンチマークで69.4%の成功率を達成した。
論文 参考訳(メタデータ) (2024-06-05T19:25:40Z) - RevOrder: A Novel Method for Enhanced Arithmetic in Language Models [0.9043578619916238]
RevOrder は出力の桁を 1-digit (nD by 1D) 乗算タスクの追加、減算、n-digit で反転させる。
本手法はCSID(Count of Sequential Intermediate Digits)を$mathcalO(1)$に大幅に削減する。
論文 参考訳(メタデータ) (2024-02-06T09:10:35Z) - Teaching Arithmetic to Small Transformers [39.72665384986095]
本研究では,小形変圧器が算術演算を効率的に学習する方法について検討する。
まず,従来の学習データが算術学習に最も効果的でないことを示す。
次に、中間ステップの結果を含むチェーン・オブ・シンクスタイルのデータをトレーニングします。
論文 参考訳(メタデータ) (2023-07-07T04:33:31Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - Arithmetic-Based Pretraining -- Improving Numeracy of Pretrained
Language Models [67.48894919842576]
最先端の事前訓練された言語モデルは、数式を必要とするタスクにアウト・オブ・ボックスを適用すると、その能力より劣る傾向にある。
本稿では,Arithmetic-Based Pretrainingと呼ばれる拡張事前学習手法を提案する。
本実験は,算数性の向上を必要とする3つのタスクにおいて,算術的事前学習の有効性を示す。
論文 参考訳(メタデータ) (2022-05-13T16:10:13Z) - Few-shot Sequence Learning with Transformers [79.87875859408955]
少数のトレーニング例で提供される新しいタスクの学習を目的とした少数のショットアルゴリズム。
本研究では,データポイントがトークンのシーケンスである設定において,少数ショット学習を行う。
トランスフォーマーに基づく効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-17T12:30:38Z) - Second-order Neural Network Training Using Complex-step Directional
Derivative [41.4333906662624]
本稿では,2次ニューラルネットワークトレーニングのための数値アルゴリズムを提案する。
複素ステップ有限差分を用いてヘッセン計算の実践的障害に取り組む。
提案手法は,ディープラーニングと数値最適化のための新しいアルゴリズムを広範囲に導入すると考えられる。
論文 参考訳(メタデータ) (2020-09-15T13:46:57Z) - Process Discovery for Structured Program Synthesis [70.29027202357385]
プロセスマイニングにおける中核的なタスクは、イベントログデータから正確なプロセスモデルを学ぶことを目的としたプロセス発見である。
本稿では,ターゲットプロセスモデルとして(ブロック-)構造化プログラムを直接使用することを提案する。
我々は,このような構造化プログラムプロセスモデルの発見に対して,新たなボトムアップ・アグリメティブ・アプローチを開発する。
論文 参考訳(メタデータ) (2020-08-13T10:33:10Z) - Continual Deep Learning by Functional Regularisation of Memorable Past [95.97578574330934]
知的システムにとって、新しいスキルを継続的に学習することは重要だが、標準的なディープラーニング手法は、過去の破滅的な忘れ物に悩まされている。
本稿では, 過去の記憶に残るいくつかの例を, 忘れることを避けるために活用する機能正規化手法を提案する。
提案手法は,標準ベンチマーク上での最先端性能を実現し,正規化とメモリベースの手法を自然に組み合わせた生涯学習の新たな方向性を開拓する。
論文 参考訳(メタデータ) (2020-04-29T10:47:54Z) - Stacked Generalizations in Imbalanced Fraud Data Sets using Resampling
Methods [2.741266294612776]
本研究では,メタあるいはスーパーラーナと呼ばれる2段階の機械学習手法を組み合わせることによって,アルゴリズムの性能向上を図る。
アルゴリズムのサンプルセットのすべての置換を考慮に入れたテストハーネスを構築することは、複雑な本質的なデータ構造がすべて徹底的にテストされていることを示す。
論文 参考訳(メタデータ) (2020-04-03T20:38:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。