論文の概要: Computational Blueprints: Generating Isomorphic Mathematics Problems with Large Language Models
- arxiv url: http://arxiv.org/abs/2511.07932v1
- Date: Wed, 12 Nov 2025 01:29:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.553583
- Title: Computational Blueprints: Generating Isomorphic Mathematics Problems with Large Language Models
- Title(参考訳): 計算的青写真:大言語モデルを用いた同型数学問題の生成
- Authors: Jeong-Hoon Kim, Jinwoo Nam, Geunsik Jo,
- Abstract要約: 我々は、ソース問題の構造的に一貫した変種を生成するために、新しいタスク、Isomorphic Math Problem Generation (IMPG) を開発した。
メタレベルの生成とテンプレートベースの選択的なバリエーションにより、CBITは高い数学的正しさと構造的整合性を達成する。
CBITが生成した問題は専門家が作成したものよりも17.8%低いエラー率を示し、6,732人の学習者が商業教育プラットフォームに展開し、186,870のインタラクションを得た。
- 参考スコア(独自算出の注目度): 6.987518658520629
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Personalized mathematics education is growing rapidly, creating a strong demand for large sets of similar practice problems. Yet existing studies on mathematics problem generation have focused on data augmentation for training neural language models rather than on direct educational deployment. To bridge this gap, we define a new task, Isomorphic Math Problem Generation (IMPG), designed to produce structurally consistent variants of source problems. Subsequently, we explored LLM-based frameworks for automatic IMPG through successive refinements, and established Computational Blueprints for Isomorphic Twins (CBIT). With meta-level generation and template-based selective variation, CBIT achieves high mathematical correctness and structural consistency while reducing the cost of generation. Empirical results across refinements demonstrate that CBIT is superior on generation accuracy and cost-effectiveness at scale. Most importantly, CBIT-generated problems exhibited an error rate 17.8% lower than expert-authored items, with deployment to 6,732 learners on a commercial education platform yielding 186,870 interactions.
- Abstract(参考訳): パーソナライズされた数学教育は急速に成長しており、類似の実践問題に対する強い需要を生み出している。
しかし、数学の問題生成に関する既存の研究は、直接の教育的展開ではなく、ニューラルネットワークモデルを訓練するためのデータ拡張に焦点を当てている。
このギャップを埋めるために、構造的に一貫したソース問題を生成するために設計された新しいタスク、Isomorphic Math Problem Generation (IMPG) を定義する。
その後、連続的な改良を通じて自動IMPGのためのLCMベースのフレームワークを探索し、等方性双生児のための計算青写真(CBIT)を構築した。
メタレベルの生成とテンプレートベースの選択的変動により、CBITは生成コストを低減しつつ、高い数学的正しさと構造的整合性を達成する。
改良によりCBITは生成精度とコスト効率に優れていた。
最も重要なこととして、CBITが生成した問題は専門家が作成したものよりも17.8%低いエラー率を示し、商業教育プラットフォーム上で6,732人の学習者が186,870のインタラクションを得られるようになった。
関連論文リスト
- QueST: Incentivizing LLMs to Generate Difficult Problems [77.75835742350644]
大規模言語モデルは、推論タスク、競合レベルのコーディングと数学の問題を解く上で、強力なパフォーマンスを達成した。
既存の競合するコーディングデータセットには、数千から数万の問題しか含まれていない。
本稿では,難解なグラフサンプリングと難解な拒否の微調整を組み合わせた新しいフレームワークであるQueSTを提案する。
論文 参考訳(メタデータ) (2025-10-20T16:29:53Z) - JT-Math: A Multi-Stage Framework for Advanced Mathematical Reasoning in Large Language Models [15.054016881151254]
本稿では,ベース,インストラクション,思考バージョンで構成される一連のオープンソースモデルであるJT-Math-8Bを紹介する。
Instruct Model は Supervised Fine-Tuning (SFT) と GRPO-based reinforcement learning (RL) によって直接的かつ簡潔な回答に最適化されている。
思考モデルは、Long Chain-of-Thought (Long CoT)アプローチを用いて、SFTと新しい多段階RLカリキュラムを組み合わせた複雑な問題解決のために訓練されている。
論文 参考訳(メタデータ) (2025-07-26T02:45:10Z) - Self-Evolved Preference Optimization for Enhancing Mathematical Reasoning in Small Language Models [17.673293240849787]
我々は、小言語モデル(SLM)における推論を強化する自己進化型データ生成パイプラインSPHEREを紹介する。
SPHEREは、 (i) 自己生成(Self-Generation)、 (ii) 自己補正(Self-Correction)、 (iii) 多様性誘導(diversity induction)、そして、複数の有効な推論軌道を通じて堅牢性を改善する。
本研究では,SPHERE学習モデルがベースバージョンよりも大幅に向上し,特定のベンチマークでGPT-4oにマッチすることを示す。
論文 参考訳(メタデータ) (2025-03-04T14:43:25Z) - MATH-Perturb: Benchmarking LLMs' Math Reasoning Abilities against Hard Perturbations [90.07275414500154]
各種モデルにおけるMATH-P-Hardの性能低下を観察する。
また、学習した問題解決スキルを盲目的に適用する新しい形態の記憶に関する懸念も提起する。
論文 参考訳(メタデータ) (2025-02-10T13:31:46Z) - RADIOv2.5: Improved Baselines for Agglomerative Vision Foundation Models [60.596005921295806]
集約モデルは、ビジョンファウンデーションモデルをトレーニングするための強力なアプローチとして現れています。
我々は、解像度モードシフト、教師の不均衡、慣用的教師アーティファクト、過剰な出力トークンなど、重要な課題を識別する。
本稿では,マルチレゾリューショントレーニング,モザイク強化,教師の損失関数のバランスの改善など,いくつかの新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-12-10T17:06:41Z) - Training and Evaluating Language Models with Template-based Data Generation [5.980612601840882]
本稿では,フロンティアLSM(GPT-4)を利用してメタテンプレートを自動生成する新しいパラダイムであるTDGを紹介する。
メタテンプレート生成にGPT-4を用い,多種多様な複雑な問題構造を保証し,データ拡張を行った。
論文 参考訳(メタデータ) (2024-11-27T07:32:56Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - MathGenie: Generating Synthetic Data with Question Back-translation for Enhancing Mathematical Reasoning of LLMs [38.127313175508746]
MathGenieは、小規模の問題解決データセットから多様で信頼性の高い数学問題を生成する新しい方法である。
7Bから70Bまでの各種事前学習モデルについて, 提案手法の有効性を検証するために, 新たなキュレートデータを用いて訓練を行った。
MathGenieLM-InternLM2はGSM8Kで87.7%、MATHで55.7%の精度を達成し、オープンソース言語モデルで最高のスコアを確保している。
論文 参考訳(メタデータ) (2024-02-26T07:17:25Z) - Generative AIBIM: An automatic and intelligent structural design pipeline integrating BIM and generative AI [4.110105899014154]
本稿では、既存のAIベースのデザインフレームワークを4つの側面から革新する。
まず、提案されたパイプラインは、BIMの適用範囲を広げる。
第2に、生成AI(TGAI)を組み込んだ2段階生成フレームワークは、設計問題の複雑さを単純化するために設計されている。
第3に、TGAIにおけるAIモデルにおいて、物理条件を拡散モデル(DM)に融合させ、新しい物理ベースの条件拡散モデル(PCDM)を構築するパイオニアである。
論文 参考訳(メタデータ) (2023-11-07T15:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。