論文の概要: Arrows of Math Reasoning Data Synthesis for Large Language Models: Diversity, Complexity and Correctness
- arxiv url: http://arxiv.org/abs/2508.18824v1
- Date: Tue, 26 Aug 2025 09:01:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.767245
- Title: Arrows of Math Reasoning Data Synthesis for Large Language Models: Diversity, Complexity and Correctness
- Title(参考訳): 大規模言語モデルのための数学推論データの合成:多様性、複雑さ、正確性
- Authors: Sirui Chen, Changxin Tian, Binbin Hu, Kunlong Chen, Ziqi Liu, Zhiqiang Zhang, Jun Zhou,
- Abstract要約: 本稿では,多様性,複雑性,正確性を保証した高品質な数学的コーパスを生成するプログラム支援合成フレームワークを提案する。
このフレームワークは、数学的知識システムとドメイン固有のツールを統合して実行可能なプログラムを作成する。
我々は1230万の問題を解決した。
- 参考スコア(独自算出の注目度): 37.03639650111288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enhancing the mathematical reasoning of large language models (LLMs) demands high-quality training data, yet conventional methods face critical challenges in scalability, cost, and data reliability. To address these limitations, we propose a novel program-assisted synthesis framework that systematically generates a high-quality mathematical corpus with guaranteed diversity, complexity, and correctness. This framework integrates mathematical knowledge systems and domain-specific tools to create executable programs. These programs are then translated into natural language problem-solution pairs and vetted by a bilateral validation mechanism that verifies solution correctness against program outputs and ensures program-problem consistency. We have generated 12.3 million such problem-solving triples. Experiments demonstrate that models fine-tuned on our data significantly improve their inference capabilities, achieving state-of-the-art performance on several benchmark datasets and showcasing the effectiveness of our synthesis approach.
- Abstract(参考訳): 大規模言語モデル(LLM)の数学的推論を強化するには、高品質なトレーニングデータが必要であるが、従来の手法はスケーラビリティ、コスト、データの信頼性において重要な課題に直面している。
これらの制約に対処するために,多様性,複雑性,正確性を保証した高品質な数学的コーパスを体系的に生成する,プログラム支援型合成フレームワークを提案する。
このフレームワークは、数学的知識システムとドメイン固有のツールを統合して実行可能なプログラムを作成する。
これらのプログラムは、自然言語の問題解決ペアに変換され、プログラム出力に対する解の正当性を検証し、プログラムプロブレムの整合性を保証する二元検証メカニズムによって検証される。
我々は1230万の問題を解決した。
実験により、データに基づいて微調整されたモデルは、推論能力を大幅に向上し、いくつかのベンチマークデータセット上で最先端のパフォーマンスを達成し、合成アプローチの有効性を示す。
関連論文リスト
- ModelingAgent: Bridging LLMs and Mathematical Modeling for Real-World Challenges [72.19809898215857]
ModelingBenchは、様々な領域にわたる数学モデリングの競争から、現実に着想を得たオープンエンドの問題を特徴付ける新しいベンチマークである。
これらのタスクには、自然言語を形式的な数学的定式化に翻訳し、適切なツールを適用し、構造化された防御可能なレポートを生成する必要がある。
ツール使用をコーディネートするマルチエージェントフレームワークである ModelingAgent も紹介します。
論文 参考訳(メタデータ) (2025-05-21T03:33:23Z) - RV-Syn: Rational and Verifiable Mathematical Reasoning Data Synthesis based on Structured Function Library [58.404895570822184]
RV-Synは、新しい数学的合成手法である。
このライブラリからPython形式の関数を組み合わせることで、グラフをソリューションとして生成する。
構築したグラフに基づいて,解誘導論理認識問題生成を実現する。
論文 参考訳(メタデータ) (2025-04-29T04:42:02Z) - MathFusion: Enhancing Mathematical Problem-solving of LLM through Instruction Fusion [48.443460251524776]
MathFusionはクロスプロブレム命令合成による数学的推論を強化する新しいフレームワークである。
MathFusionは、高いデータ効率を維持しながら、数学的推論を大幅に改善する。
論文 参考訳(メタデータ) (2025-03-20T15:00:41Z) - Advancing Mathematical Reasoning in Language Models: The Impact of Problem-Solving Data, Data Synthesis Methods, and Training Stages [13.377908992869814]
問題解決データは、一般的な数学的コーパスと比較してモデルの数学的能力を大幅に向上させる。
本研究では, 効果的なデータ合成手法を同定し, チュータシップ増幅合成法が最高の性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-01-23T12:14:57Z) - GLUECons: A Generic Benchmark for Learning Under Constraints [102.78051169725455]
本研究では,自然言語処理とコンピュータビジョンの分野における9つのタスクの集合であるベンチマークを作成する。
外部知識を制約としてモデル化し、各タスクの制約のソースを特定し、これらの制約を使用するさまざまなモデルを実装します。
論文 参考訳(メタデータ) (2023-02-16T16:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。