論文の概要: MetaRuleGPT: Recursive Numerical Reasoning of Language Models Trained with Simple Rules
- arxiv url: http://arxiv.org/abs/2412.13536v1
- Date: Wed, 18 Dec 2024 06:27:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:24:50.969797
- Title: MetaRuleGPT: Recursive Numerical Reasoning of Language Models Trained with Simple Rules
- Title(参考訳): MetaRuleGPT: 単純な規則で訓練された言語モデルの再帰的数値推論
- Authors: Kejie Chen, Lin Wang, Qinghai Zhang, Renjun Xu,
- Abstract要約: 本稿では,MetaRuleGPTを提案する。
大規模な生のインスタンスデータで構成される従来のトレーニングセットとは対照的に、MetaRuleGPTは、はるかに抽象的なデータセットで事前トレーニングされている。
- 参考スコア(独自算出の注目度): 6.988553014376883
- License:
- Abstract: Recent studies have highlighted the limitations of large language models in mathematical reasoning, particularly their inability to capture the underlying logic. Inspired by meta-learning, we propose that models should acquire not only task-specific knowledge but also transferable problem-solving skills. We introduce MetaRuleGPT, a novel Transformer-based architecture that performs precise numerical calculations and complex logical operations by learning and combining different rules. In contrast with traditional training sets, which are heavily composed of massive raw instance data, MetaRuleGPT is pre-trained on much less abstract datasets containing basic, compound, and iterative rules for mathematical reasoning. Extensive experimental results demonstrate MetaRuleGPT can mimic human's rule-following capabilities, break down complexity, and iteratively derive accurate results for complex mathematical problems. These findings prove the potential of rule learning to enhance the numerical reasoning abilities of language models.
- Abstract(参考訳): 近年の研究では、数学的推論における大きな言語モデルの限界、特に基礎となる論理を捉えることができないことが強調されている。
メタラーニングにインスパイアされたモデルでは,タスク固有の知識だけでなく,伝達可能な問題解決スキルも獲得することが提案される。
そこで我々はMetaRuleGPTを紹介した。MetaRuleGPTはトランスフォーマーをベースとした新しいアーキテクチャで、異なるルールを学習して組み合わせることで、正確な数値計算と複雑な論理演算を行う。
大量の生のインスタンスデータで構成される従来のトレーニングセットとは対照的に、MetaRuleGPTは、数学的推論のための基本的な、複合的、反復的なルールを含む、はるかに抽象的なデータセットで事前訓練されている。
MetaRuleGPTは、人間のルール追従能力を模倣し、複雑さを分解し、複雑な数学的問題に対して反復的に正確な結果を導出できることを示した。
これらの知見は,言語モデルの数値推論能力を高めるためのルール学習の可能性を示すものである。
関連論文リスト
- Large Language Models and Mathematical Reasoning Failures [1.6114012813668932]
本稿では,50の高校レベルの単語問題を用いた大規模言語モデル(LLM)の数学的推論能力について検討する。
最終回答と解決手順の両方を厳格に分析して、推論の失敗を特定します。
より新しいモデル(例えば、o3-mini、deepseek-r1)はより精度が高いが、全てのモデルは空間的推論、戦略的計画、算術における誤りを示す。
論文 参考訳(メタデータ) (2025-02-17T09:07:32Z) - Learning Mathematical Rules with Large Language Models [10.285317818397298]
本研究では,分散性や方程式の単純化など,特定の数学的規則を学習する大規模言語モデルの能力について検討する。
本稿では、これらのルールを一般化する能力と、単語問題を文脈で再利用する能力を実証的に分析する。
論文 参考訳(メタデータ) (2024-10-22T12:51:51Z) - How Truncating Weights Improves Reasoning in Language Models [49.80959223722325]
特定のグローバルな関連が、特定の重み成分やトランスフォーマーブロックにどのように格納されるかを検討する。
実験的にも理論的にも、トレーニング中にどのように起こるのかを分析します。
論文 参考訳(メタデータ) (2024-06-05T08:51:08Z) - Exploring the Compositional Deficiency of Large Language Models in Mathematical Reasoning [30.40415945003794]
数学的推論における大規模言語モデル(LLM)の構成性について検討する。
論理的欠陥の問題は実世界では非常に稀であるため、これらはLLMの「見えない」ケースを表している。
実験の結果, LLM には必要知識の双方の構成要素があるが, これらの新規事例を扱うために, テキストbfspontanely に組み合わせることはできないことがわかった。
論文 参考訳(メタデータ) (2024-05-05T16:35:30Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - A Hybrid System for Systematic Generalization in Simple Arithmetic
Problems [70.91780996370326]
本稿では,記号列に対する合成的および体系的推論を必要とする算術的問題を解くことができるハイブリッドシステムを提案する。
提案システムは,最も単純なケースを含むサブセットでのみ訓練された場合においても,ネストした数式を正確に解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-29T18:35:41Z) - Reflection of Thought: Inversely Eliciting Numerical Reasoning in
Language Models via Solving Linear Systems [42.782260686177395]
本稿では,事前学習言語モデルに隠された数値推論知識を抽出し,活用するための新しい手法を提案する。
まず、単純な数値をアンカーとして利用して、暗黙的に推論された算術表現を言語モデルから探索する。
我々は、解析的に解決可能な線形システムとしてタスクを変換し、定式化する。
論文 参考訳(メタデータ) (2022-10-11T00:57:19Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。