論文の概要: Scaling Data Difficulty: Improving Coding Models via Reinforcement Learning on Fresh and Challenging Problems
- arxiv url: http://arxiv.org/abs/2603.07779v1
- Date: Sun, 08 Mar 2026 19:45:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.212311
- Title: Scaling Data Difficulty: Improving Coding Models via Reinforcement Learning on Fresh and Challenging Problems
- Title(参考訳): データ障害のスケーリング: 新鮮および混成問題における強化学習による符号化モデルの改善
- Authors: Zongqian Li, Tengchao Lv, Shaohan Huang, Yixuan Su, Qinzheng Sun, Qiufeng Yin, Ying Xin, Scarlett Li, Lei Cui, Nigel Collier, Furu Wei,
- Abstract要約: 次世代コード生成モデルのトレーニングには高品質なデータセットが必要である。
既存のデータセットは、不均衡、フォーマットの不整合、データ品質の問題に直面する。
収集、処理、フィルタリング、検証を含む4段階のデータ処理フレームワークを紹介します。
- 参考スコア(独自算出の注目度): 92.65922739844912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training next-generation code generation models requires high-quality datasets, yet existing datasets face difficulty imbalance, format inconsistency, and data quality problems. We address these challenges through systematic data processing and difficulty scaling. We introduce a four-stage Data Processing Framework encompassing collection, processing, filtering, and verification, incorporating Automatic Difficulty Filtering via an LLM-based predict-calibrate-select framework that leverages multi-dimensional difficulty metrics across five weighted dimensions to retain challenging problems while removing simplistic ones. The resulting MicroCoder dataset comprises tens of thousands of curated real competitive programming problems from diverse platforms, emphasizing recency and difficulty. Evaluations on strictly unseen LiveCodeBench demonstrate that MicroCoder achieves 3x larger performance gains within 300 training steps compared to widely-used baseline datasets of comparable size, with consistent advantages under both GRPO and its variant training algorithms. The MicroCoder dataset delivers obvious improvements on medium and hard problems across different model sizes, achieving up to 17.2% relative gains in overall performance where model capabilities are most stretched. These results validate that difficulty-aware data curation improves model performance on challenging tasks, providing multiple insights for dataset creation in code generation.
- Abstract(参考訳): 次世代コード生成モデルのトレーニングには、高品質なデータセットを必要とするが、既存のデータセットは、不均衡、フォーマットの不整合、データ品質の問題に直面している。
データ処理の体系化とスケーリングの難しさにより,これらの課題に対処する。
我々は,LLMベースの予測キャリブレート選択フレームワークを用いて,コレクション,処理,フィルタリング,検証を含む4段階のデータ処理フレームワークを紹介した。
結果として得られたMicroCoderデータセットは、さまざまなプラットフォームから数万のキュレートされた実際の競合プログラミング問題で構成され、信頼性と難易度を強調している。
厳密には見当たらないLiveCodeBenchの評価によると、MicroCoderは、GRPOとその変種トレーニングアルゴリズムの両方で一貫したアドバンテージを持つ、広範に使用されているベースラインデータセットと比較して、300のトレーニングステップで3倍のパフォーマンス向上を達成した。
MicroCoderデータセットは、さまざまなモデルサイズにまたがる中堅と硬の問題を明らかに改善し、モデル機能が最も拡張された全体的なパフォーマンスにおいて、最大17.2%の相対的な向上を実現している。
これらの結果は、困難なデータキュレーションが困難なタスクにおけるモデルパフォーマンスを改善し、コード生成におけるデータセット生成に関する複数の洞察を提供することを示す。
関連論文リスト
- QueST: Incentivizing LLMs to Generate Difficult Problems [77.75835742350644]
大規模言語モデルは、推論タスク、競合レベルのコーディングと数学の問題を解く上で、強力なパフォーマンスを達成した。
既存の競合するコーディングデータセットには、数千から数万の問題しか含まれていない。
本稿では,難解なグラフサンプリングと難解な拒否の微調整を組み合わせた新しいフレームワークであるQueSTを提案する。
論文 参考訳(メタデータ) (2025-10-20T16:29:53Z) - ScaleDiff: Scaling Difficult Problems for Advanced Mathematical Reasoning [51.946959481392064]
大規模推論モデル (LRM) は複雑な問題解決において顕著な能力を示している。
難しい問題の生成をスケールするために設計されたパイプラインであるScaleDiffを提案する。
我々のパイプラインは、より大きくて高価な教師モデルに頼ることなく、高度な推論能力を効果的に伝達できることを示します。
論文 参考訳(メタデータ) (2025-09-25T12:22:44Z) - Large-Scale Diverse Synthesis for Mid-Training [15.81154701009597]
BoostQAは100Bの大規模質問回答データセットである。
本稿では,BoostQAを合成するための新しい多様化パイプラインを提案する。
提案手法は,Llama-3 8Bを40Bトーケンデータセットで中級訓練し,MMLUとCMMLUで平均$mathbf12.74%の改善を実現する。
論文 参考訳(メタデータ) (2025-08-02T11:37:16Z) - Easy2Hard-Bench: Standardized Difficulty Labels for Profiling LLM Performance and Generalization [126.27645170941268]
さまざまなドメインにまたがる6つのベンチマークデータセットのコレクションであるEasy2Hard-Benchを紹介します。
これらのデータセット内の各問題は、数値的な難易度スコアで注釈付けされる。
様々な難易度にまたがる性能と一般化能力を総合的に分析する。
論文 参考訳(メタデータ) (2024-09-27T03:49:56Z) - DataPerf: Benchmarks for Data-Centric AI Development [81.03754002516862]
DataPerfは、MLデータセットとデータ中心アルゴリズムを評価するための、コミュニティ主導のベンチマークスイートである。
私たちは、この反復的な開発をサポートするために、複数の課題を抱えたオープンなオンラインプラットフォームを提供しています。
ベンチマーク、オンライン評価プラットフォーム、ベースライン実装はオープンソースである。
論文 参考訳(メタデータ) (2022-07-20T17:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。