論文の概要: Learning Interestingness in Automated Mathematical Theory Formation
- arxiv url: http://arxiv.org/abs/2511.14778v1
- Date: Wed, 05 Nov 2025 18:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.348224
- Title: Learning Interestingness in Automated Mathematical Theory Formation
- Title(参考訳): 自動数学的理論形成における学習の興味
- Authors: George Tsoukalas, Rahul Saha, Amitayush Thakur, Sabrina Reguyal, Swarat Chaudhuri,
- Abstract要約: 我々は、新しい数学的理論のオープンエンド発見を自動化するために、2つの重要なステップを踏む。
まず,概念発見と合成定理証明をモデル化した強化学習環境である$emphFERMAT$を紹介する。
第二に、$emphFERMAT$: 数学的対象の$emphinterestingness$を自動的にスコアする。
- 参考スコア(独自算出の注目度): 14.93273836886908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We take two key steps in automating the open-ended discovery of new mathematical theories, a grand challenge in artificial intelligence. First, we introduce $\emph{FERMAT}$, a reinforcement learning (RL) environment that models concept discovery and theorem-proving using a set of symbolic actions, opening up a range of RL problems relevant to theory discovery. Second, we explore a specific problem through $\emph{FERMAT}$: automatically scoring the $\emph{interestingness}$ of mathematical objects. We investigate evolutionary algorithms for synthesizing nontrivial interestingness measures. In particular, we introduce an LLM-based evolutionary algorithm that features function abstraction, leading to notable improvements in discovering elementary number theory and finite fields over hard-coded baselines. We open-source the $\emph{FERMAT}$ environment at this URL(https://github.com/trishullab/Fermat).
- Abstract(参考訳): 人工知能における大きな課題である、新しい数学的理論のオープンな発見を自動化するための2つの重要なステップを取ります。
まず、シンボリックアクションのセットを用いて概念発見と定理証明をモデル化し、理論発見に関連するRL問題の範囲を開放する強化学習(RL)環境である$\emph{FERMAT}$を紹介する。
第二に、$\emph{FERMAT}$: 数学的対象の$\emph{interestingness}$を自動的にスコアする。
非自明な面白さ尺度を合成するための進化的アルゴリズムについて検討する。
特に,関数の抽象化を特徴とするLLMに基づく進化的アルゴリズムを導入し,ハードコードベースライン上での素数理論と有限フィールドの発見に顕著な改善をもたらす。
このURLで$\emph{FERMAT}$環境をオープンソースにします(https://github.com/trishullab/Fermat)。
関連論文リスト
- Automated Discovery of Integral with Deep Learning [0.0]
深層学習モデルは、シーケンス・ツー・シーケンス・モデルまたは初歩的な統合原理を明らかにすることによって、積分を推論するタスクにアプローチできることを示す。
実験の結果、深層学習モデルは、シーケンス・ツー・シーケンス・モデル、あるいは初歩的な統合原理を明らかにすることによって、積分を推論するタスクにアプローチできることがわかった。
論文 参考訳(メタデータ) (2024-02-28T04:34:15Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Provably Efficient Exploration in Quantum Reinforcement Learning with Logarithmic Worst-Case Regret [23.418957451727255]
量子強化学習(RL)のための新しいUCRL型アルゴリズムを提案する。
我々は$mathcalO(mathrmpoly(S, A, H, log T))$ the worst-case regret for it, where $T$ is the number of episodes。
具体的には、$d$次元線形表現を持つ線形混合MDPに対する値目標回帰(VTR)に基づく量子アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-02-21T16:23:11Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Classification Under Misspecification: Halfspaces, Generalized Linear
Models, and Connections to Evolvability [39.01599245403753]
特に、Massartノイズ下でのハーフスペースの学習問題を$eta$で検討する。
我々は任意のSQアルゴリズムが$mathsfOPT + epsilon$を達成するのに超ポリノミカルな多くのクエリを必要とすることを示した。
また、Massartノイズ下でハーフスペースを学習するためのアルゴリズムを実証的に研究し、いくつかの魅力的なフェアネス特性を示すことを示した。
論文 参考訳(メタデータ) (2020-06-08T17:59:11Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。