論文の概要: RSRM: Reinforcement Symbolic Regression Machine
- arxiv url: http://arxiv.org/abs/2305.14656v1
- Date: Wed, 24 May 2023 02:51:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 20:30:32.545507
- Title: RSRM: Reinforcement Symbolic Regression Machine
- Title(参考訳): RSRM:強化シンボル回帰機
- Authors: Yilong Xu, Yang Liu, Hao Sun
- Abstract要約: 本稿では,不足データのみから複雑な数式を解く能力を習得する新しい強化回帰マシンを提案する。
RSRMモデルは,(1)事前定義された数学演算子と変数からなる最適な数学表現木を探索するモンテカルロ木探索 (MCTS) エージェント,(2)報酬の分布を適切に理解してMCTSの検索空間を縮小するダブルQ学習ブロック,(3)新しい数学演算子を蒸留して数学表現木の表現能力を向上する修飾サブツリー探索ブロックの3つの主要なモジュールから構成される。
- 参考スコア(独自算出の注目度): 13.084113582897965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In nature, the behaviors of many complex systems can be described by
parsimonious math equations. Automatically distilling these equations from
limited data is cast as a symbolic regression process which hitherto remains a
grand challenge. Keen efforts in recent years have been placed on tackling this
issue and demonstrated success in symbolic regression. However, there still
exist bottlenecks that current methods struggle to break when the discrete
search space tends toward infinity and especially when the underlying math
formula is intricate. To this end, we propose a novel Reinforcement Symbolic
Regression Machine (RSRM) that masters the capability of uncovering complex
math equations from only scarce data. The RSRM model is composed of three key
modules: (1) a Monte Carlo tree search (MCTS) agent that explores optimal math
expression trees consisting of pre-defined math operators and variables, (2) a
Double Q-learning block that helps reduce the feasible search space of MCTS via
properly understanding the distribution of reward, and (3) a modulated sub-tree
discovery block that heuristically learns and defines new math operators to
improve representation ability of math expression trees. Biding of these
modules yields the state-of-the-art performance of RSRM in symbolic regression
as demonstrated by multiple sets of benchmark examples. The RSRM model shows
clear superiority over several representative baseline models.
- Abstract(参考訳): 自然界において、多くの複素系の挙動は調和的な数学方程式によって記述できる。
有限データからこれらの方程式を自動蒸留することは、ヒッヘルトが大きな課題であり続けている象徴的回帰過程として鋳造される。
近年、この問題に取り組むことに熱心に取り組んでおり、象徴的回帰の成功を示している。
しかし、離散的な探索空間が無限大に向かう傾向にある場合、特に基礎となる数式が複雑になるとき、現在の手法が破れるようなボトルネックが存在する。
この目的のために,不足データのみから複雑な数式を解く能力を習得する新しい強化記号回帰機械(RSRM)を提案する。
rsrmモデルは,(1)モンテカルロ木探索 (mcts) エージェントで,事前定義された数学演算子と変数からなる最適な数学式木を探索し,(2)報酬分布を適切に理解することでmctsの探索空間を縮小するダブルq学習ブロック,(3)ヒューリスティックに学習し,数学式ツリーの表現能力を向上させるための新しい数学演算子を定義する変調サブツリー探索ブロック,の3つのキーモジュールから構成されている。
これらのモジュールのバイディングは、複数のベンチマークの例で示されるように、シンボリック回帰におけるRSRMの最先端性能をもたらす。
RSRMモデルは、いくつかの代表的ベースラインモデルよりも明確な優位性を示す。
関連論文リスト
- Discovering symbolic expressions with parallelized tree search [59.92040079807524]
記号回帰は、データから簡潔で解釈可能な数学的表現を発見する能力のおかげで、科学研究において重要な役割を果たす。
既存のアルゴリズムは、複雑性の問題に対処する際の精度と効率の重要なボトルネックに直面してきた。
本稿では,限定データから汎用数学的表現を効率的に抽出する並列木探索(PTS)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-05T10:41:15Z) - MMSR: Symbolic Regression is a Multimodal Task [12.660401635672967]
記号回帰は、もともと最適化問題として定式化され、GPと強化学習アルゴリズムがそれを解決するために用いられた。
この問題を解決するために、研究者はデータから表現へのマッピングを翻訳問題として扱う。
本稿では,複数の主流データセット上で最も高度な結果が得られるMMSRを提案する。
論文 参考訳(メタデータ) (2024-02-28T08:29:42Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - A Transformer Model for Symbolic Regression towards Scientific Discovery [11.827358526480323]
記号回帰(SR)は、数値データセットを最もよく記述する数学的表現を探索する。
本稿では, シンボリック回帰に着目した新しいトランスフォーマーモデルを提案する。
我々は、正規化ツリーベース編集距離を用いて、最先端の結果を出力するSRSDデータセットにベストモデルを適用した。
論文 参考訳(メタデータ) (2023-12-07T06:27:48Z) - Continual Referring Expression Comprehension via Dual Modular
Memorization [133.46886428655426]
Referring Expression (REC) は、自然言語で記述された対象のイメージ領域をローカライズすることを目的としている。
既存のRECアルゴリズムは、モデルへのデータ供給のトレーニングを前もって行うと強く仮定する。
本稿では、入ってくるタスクのストリーム上でモデルが学習するRECの新しい設定である連続参照表現(CREC)を提案する。
学習済みの知識を忘れずに,スクラッチから繰り返し再学習することなく,逐次的タスクのモデルを継続的に改善するために,デュアルモジュール記憶法という効果的なベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:58:51Z) - TRIGO: Benchmarking Formal Mathematical Proof Reduction for Generative
Language Models [68.65075559137608]
本稿では, ATP ベンチマーク TRIGO を提案する。このベンチマークでは, ステップバイステップの証明で三角法式を縮小するだけでなく, 論理式上で生成する LM の推論能力を評価する。
我々は、Webから三角法式とその縮小フォームを収集し、手作業で単純化プロセスに注釈を付け、それをリーン形式言語システムに翻訳する。
我々はLean-Gymに基づく自動生成装置を開発し、モデルの一般化能力を徹底的に分析するために、様々な困難と分布のデータセット分割を作成する。
論文 参考訳(メタデータ) (2023-10-16T08:42:39Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Scalable Neural Symbolic Regression using Control Variables [7.725394912527969]
本稿では,制御変数を利用したスケーラブルなシンボル回帰モデルであるScaleSRを提案し,精度とスケーラビリティを両立させる。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,複数の変数を持つ数学的表現の発見において,提案した ScaleSR は最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - Incorporating Background Knowledge in Symbolic Regression using a
Computer Algebra System [0.0]
シンボリック回帰(SR)は、与えられたデータセットに適合する解釈可能な簡潔な表現を生成することができる。
具体的には、従来の遺伝的アルゴリズム(GA)ベースのSR(PySR)とマルコフ連鎖モンテカルロ(MCMC)ベースのベイズSRアーキテクチャへの制約の追加について検討する。
論文 参考訳(メタデータ) (2023-01-27T18:59:25Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。