論文の概要: AlphaIntegrator: Transformer Action Search for Symbolic Integration Proofs
- arxiv url: http://arxiv.org/abs/2410.02666v1
- Date: Thu, 3 Oct 2024 16:50:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 01:42:49.671144
- Title: AlphaIntegrator: Transformer Action Search for Symbolic Integration Proofs
- Title(参考訳): AlphaIntegrator: シンボリック統合証明のためのトランスフォーマーアクションサーチ
- Authors: Mert Ünsal, Timon Gehr, Martin Vechev,
- Abstract要約: 本稿では, ステップバイステップの数学的統合のための, 最初の正解学習システムを提案する。
鍵となる考え方は、正しい数学的統合ルールの探索を導くGPTトランスフォーマーモデルで表されるポリシーを学ぶことである。
本稿では,数式に対する公理的に正しい作用を持つシンボリックエンジンと,ステップバイステップ統合のための最初のデータセットを紹介する。
- 参考スコア(独自算出の注目度): 3.618534280726541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first correct-by-construction learning-based system for step-by-step mathematical integration. The key idea is to learn a policy, represented by a GPT transformer model, which guides the search for the right mathematical integration rule, to be carried out by a symbolic solver. Concretely, we introduce a symbolic engine with axiomatically correct actions on mathematical expressions, as well as the first dataset for step-by-step integration. Our GPT-style transformer model, trained on this synthetic data, demonstrates strong generalization by surpassing its own data generator in accuracy and efficiency, using 50% fewer search steps. Our experimental results with SoTA LLMs also demonstrate that the standard approach of fine-tuning LLMs on a set of question-answer pairs is insufficient for solving this mathematical task. This motivates the importance of discovering creative methods for combining LLMs with symbolic reasoning engines, of which our work is an instance.
- Abstract(参考訳): 本稿では, ステップバイステップの数学的統合のための, 最初の正解学習システムを提案する。
鍵となる考え方は、GPTトランスフォーマーモデルで表されるポリシーを学習することであり、これは正しい数学的統合ルールの探索を導くもので、シンボリック・ソルバによって実行される。
具体的には、数式に対する公理的に正しい作用を持つ記号エンジンと、ステップ・バイ・ステップ統合のための最初のデータセットを導入する。
この合成データに基づいてトレーニングされたGPTスタイルのトランスフォーマーモデルは、検索ステップを50%減らして、データジェネレータを精度と効率で上回り、強力な一般化を示す。
また,SoTA LLMを用いた実験結果から,一組の問合せ対に対する微調整 LLM の標準的なアプローチは,この数学的課題を解くには不十分であることが示された。
このことは、LLMとシンボリック推論エンジンを組み合わせるための創造的な方法を見つけることの重要性を動機付けている。
関連論文リスト
- Proving Olympiad Inequalities by Synergizing LLMs and Symbolic Reasoning [27.562284768743694]
大規模言語モデル(LLM)は、証明システム内で証明ステップを生成することによって、数学的定理を正式に証明することができる。
本稿では,LLMが学習した数学的直観と,記号的手法によって符号化された領域固有の洞察を相乗化する,ニューロシンボリック・戦術生成器を提案する。
複数の数学コンペティションから161の挑戦的不等式を評価する。
論文 参考訳(メタデータ) (2025-02-19T15:54:21Z) - Teaching LLMs According to Their Aptitude: Adaptive Reasoning for Mathematical Problem Solving [55.895917967408586]
大規模な言語モデルによる数学的推論への既存のアプローチは、一般化可能性(英語版)にはChain-of-Thought(英語版)(CoT)、正確な計算にはTool-Integrated Reasoning(英語版)(TIR)に依存している。
本稿では, LLM が自然に推論戦略をパーソナライズできる適応型フレームワークである TATA (Teaching LLMs according their Aptitude) を提案する。
論文 参考訳(メタデータ) (2025-02-17T16:56:23Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - The Liouville Generator for Producing Integrable Expressions [0.0]
ここでは、LIOUVILLE法と呼ばれる積分可能であることが保証される積分を生成する方法を提案する。
これは、リウヴィルの定理とシンボリック積分のためのパラレル・リッシュアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-06-17T15:13:36Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - LLM4ED: Large Language Models for Automatic Equation Discovery [0.8644909837301149]
我々は、自然言語に基づくプロンプトを利用して、データから支配方程式を自動的にマイニングする大規模言語モデルをガイドする新しいフレームワークを導入する。
具体的には、まずLLMの生成能力を利用して、文字列形式で様々な方程式を生成し、次に観測に基づいて生成された方程式を評価する。
実験は偏微分方程式と常微分方程式の両方で広範囲に行われる。
論文 参考訳(メタデータ) (2024-05-13T14:03:49Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Personalized Algorithm Generation: A Case Study in Meta-Learning ODE
Integrators [6.457555233038933]
科学計算における数値アルゴリズムのメタラーニングに関する研究
初期値問題の解法を自動的に学習する機械学習手法を開発した。
論文 参考訳(メタデータ) (2021-05-04T05:42:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。