論文の概要: MathDSL: A Domain-Specific Language for Concise Mathematical Solutions Via Program Synthesis
- arxiv url: http://arxiv.org/abs/2409.17490v2
- Date: Thu, 31 Oct 2024 03:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 16:30:51.040661
- Title: MathDSL: A Domain-Specific Language for Concise Mathematical Solutions Via Program Synthesis
- Title(参考訳): MathDSL: プログラム合成による簡潔な数学的解のためのドメイン特化言語
- Authors: Sagnik Anupam, Maddy Bowers, Omar Costilla-Reyes, Armando Solar-Lezama,
- Abstract要約: 本稿では,数式解析のためのドメイン特化言語であるMathを紹介する。
Mathは、プログラムモデルにデプロイされた場合、最先端の強化学習方法より優れている。
- 参考スコア(独自算出の注目度): 7.098286704664077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MathDSL, a Domain-Specific Language (DSL) for mathematical equation solving, which, when deployed in program synthesis models, outperforms state-of-the-art reinforcement-learning-based methods. We also introduce a quantitative metric for measuring the conciseness of a mathematical solution and demonstrate the improvement in the quality of generated solutions compared to other methods. Our system demonstrates that a program synthesis system (DreamCoder) using MathDSL can generate programs that solve linear equations with greater accuracy and conciseness than using reinforcement learning systems. Additionally, we demonstrate that if we use the action spaces of previous reinforcement learning systems as DSLs, MathDSL outperforms the action-space-DSLs. We use DreamCoder to store equation-solving strategies as learned abstractions in its program library and demonstrate that by using MathDSL, these can be converted into human-interpretable solution strategies that could have applications in mathematical education.
- Abstract(参考訳): 数式解析のためのドメイン特化言語(DSL)であるMathDSLを,プログラム合成モデルに展開すると,最先端の強化学習法より優れる。
また,数理解の簡潔さを測定するための定量的な測定基準を導入し,他の方法と比較して,生成した解の品質向上を実証する。
本研究では,MathDSLを用いたプログラム合成システム(DreamCoder)が,強化学習システムよりも高精度かつ簡潔に線形方程式を解くプログラムを生成することを示す。
さらに、従来の強化学習システムのアクション空間をDSLとして使う場合、MathDSLはアクション空間DSLよりも優れています。
私たちはDreamCoderを使って、プログラムライブラリの学習抽象化として方程式解決戦略を格納し、MathDSLを使用することで、数学的教育に応用可能な人間解釈可能なソリューション戦略に変換できることを実証します。
関連論文リスト
- MultiSTOP: Solving Functional Equations with Reinforcement Learning [56.073581097785016]
物理学における関数方程式を解くための強化学習フレームワークであるMultiSTOPを開発した。
この新しい手法は境界ではなく実際の数値解を生成する。
論文 参考訳(メタデータ) (2024-04-23T10:51:31Z) - Symbolic Equation Solving via Reinforcement Learning [9.361474110798143]
シンボリックスタック計算機を操作する強化学習エージェントを含む新しい深層学習インタフェースを提案する。
構築によって、このシステムは正確な変換と幻覚への免疫が可能である。
論文 参考訳(メタデータ) (2024-01-24T13:42:24Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Learning to Configure Mathematical Programming Solvers by Mathematical
Programming [0.8075866265341176]
本稿では,与えられた問題の特定の事例に対して,優れた数学的プログラミング解法構成を求める問題について論じる。
優れたソルバ構成を学ぶことの難しさは、パラメータ設定がすべて独立しているとは限らないことである。
このアプローチの第2段階でこの問題に対処し、学習した情報を用いて最適化問題を構築し、解決する。
論文 参考訳(メタデータ) (2024-01-10T10:02:01Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Self-Supervised Learning with Lie Symmetries for Partial Differential
Equations [25.584036829191902]
我々は、自己教師付き学習(SSL)のための共同埋め込み手法を実装することにより、PDEの汎用表現を学習する。
我々の表現は、PDEの係数の回帰などの不変タスクに対するベースラインアプローチよりも優れており、また、ニューラルソルバのタイムステッピング性能も向上している。
提案手法がPDEの汎用基盤モデルの開発に有効であることを期待する。
論文 参考訳(メタデータ) (2023-07-11T16:52:22Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Bayesian Learning to Discover Mathematical Operations in Governing
Equations of Dynamic Systems [3.1544304017740634]
本研究は,ニューラルネットワークのような階層構造を持つ数理演算ネットワーク(MathONet)を設計することにより,方程式を制御するための新しい表現を提案する。
MathONetは通常、冗長な構造を持つ超グラフと見なされる。
論文 参考訳(メタデータ) (2022-06-01T10:31:14Z) - OMLT: Optimization & Machine Learning Toolkit [54.58348769621782]
最適化と機械学習ツールキット(OMLT)は、ニューラルネットワークと勾配ブーストツリーサロゲートモデルを組み込んだオープンソースのソフトウェアパッケージである。
我々は、OMLTを可能とした最適化技術の進歩について論じ、OMLTが代数モデリング言語であるPyomoとシームレスに統合されていることを示す。
論文 参考訳(メタデータ) (2022-02-04T22:23:45Z) - Measuring Mathematical Problem Solving With the MATH Dataset [55.4376028963537]
12,500の競合数学問題のデータセットであるMATHを紹介する。
各問題には、答えの導出と説明を生成するためのモデルを教えるために使用できる完全なステップバイステップソリューションがあります。
また、モデルに数学の基礎を教えるための補助的事前学習データセットも提供します。
論文 参考訳(メタデータ) (2021-03-05T18:59:39Z) - A Neuro-Symbolic Method for Solving Differential and Functional
Equations [6.899578710832262]
微分方程式を解くために記号式を生成する方法を提案する。
既存の手法とは異なり、このシステムは記号数学よりも言語モデルを学習する必要はない。
我々は,他の数学的課題に対するシンボリックな解を見つけるために,システムがいかに懸命に一般化されるかを示す。
論文 参考訳(メタデータ) (2020-11-04T17:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。