論文の概要: Sym-Q: Adaptive Symbolic Regression via Sequential Decision-Making
- arxiv url: http://arxiv.org/abs/2402.05306v1
- Date: Wed, 7 Feb 2024 22:53:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 17:12:44.474620
- Title: Sym-Q: Adaptive Symbolic Regression via Sequential Decision-Making
- Title(参考訳): Sym-Q: 逐次決定処理による適応的シンボリック回帰
- Authors: Yuan Tian, Wenqi Zhou, Hao Dong, David S. Kammer, Olga Fink
- Abstract要約: 記号回帰は、経験的データから基礎となる数学的および物理的関係を明らかにする大きな可能性を秘めている。
既存のトランスモデルでは、一般化性と適応性の点で課題に直面している。
本稿では,記号回帰を逐次意思決定タスクとして再定義する新しい強化学習ベースモデルであるSym-Qを紹介する。
- 参考スコア(独自算出の注目度): 13.419259918160321
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Symbolic regression holds great potential for uncovering underlying
mathematical and physical relationships from empirical data. While existing
transformer-based models have recently achieved significant success in this
domain, they face challenges in terms of generalizability and adaptability.
Typically, in cases where the output expressions do not adequately fit
experimental data, the models lack efficient mechanisms to adapt or modify the
expression. This inflexibility hinders their application in real-world
scenarios, particularly in discovering unknown physical or biological
relationships. Inspired by how human experts refine and adapt expressions, we
introduce Symbolic Q-network (Sym-Q), a novel reinforcement learning-based
model that redefines symbolic regression as a sequential decision-making task.
Sym-Q leverages supervised demonstrations and refines expressions based on
reward signals indicating the quality of fitting precision. Its distinctive
ability to manage the complexity of expression trees and perform precise
step-wise updates significantly enhances flexibility and efficiency. Our
results demonstrate that Sym-Q excels not only in recovering underlying
mathematical structures but also uniquely learns to efficiently refine the
output expression based on reward signals, thereby discovering underlying
expressions. Sym-Q paves the way for more intuitive and impactful discoveries
in physical science, marking a substantial advancement in the field of symbolic
regression.
- Abstract(参考訳): 記号回帰は、経験的データから基礎となる数学的および物理的関係を明らかにする大きな可能性を秘めている。
既存のトランスフォーマーベースのモデルは、最近この領域で大きな成功を収めたが、一般化可能性と適応性の観点からは課題に直面している。
通常、出力式が実験データに適切に適合しない場合、モデルは表現を適応または修正するための効率的なメカニズムを欠いている。
この非フレキシビリティは、現実世界のシナリオ、特に未知の物理的・生物学的関係の発見における応用を妨げる。
人間の専門家による表現の洗練と適応の仕方から着想を得て,記号回帰を逐次意思決定タスクとして再定義する新しい強化学習ベースモデルであるSym-Qを紹介した。
sym-qは教師付きデモンストレーションを利用し、適合精度の質を示す報酬信号に基づいて表現を洗練する。
表現木の複雑さを管理し、正確なステップワイズ更新を行う特徴的な能力は、柔軟性と効率を大幅に向上させる。
以上の結果から,Sym-Qは,基礎となる数学的構造を復元するだけでなく,報酬信号に基づいて効率よく出力表現を洗練し,基礎となる表現を発見できることが示唆された。
sym-qは、より直感的で影響力のある物理科学の発見への道を開き、象徴的回帰の分野における著しい進歩を示している。
関連論文リスト
- SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning [1.1313585906598267]
モデル重み,入力特徴,数学的演算子を1つのトレーニングで動的に刈り取ることができる新しいフレームワークにおいて,記号回帰に対するニューラルネットワークアプローチを提案する。
LHCジェットタグ処理におけるモデルの有効性を実証するため,O$以上の入力を持つデータセットを効率的に処理できない既存のシンボリックレグレッション手法のほとんどとは対照的に,本モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Discovering interpretable elastoplasticity models via the neural
polynomial method enabled symbolic regressions [0.0]
従来のニューラルネットワークの弾塑性モデルは、しばしば解釈可能性に欠けると見なされる。
本稿では,人間専門家が解釈可能な数学的モデルを返す2段階の機械学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T22:22:32Z) - Controllable Neural Symbolic Regression [10.128755371375572]
記号回帰では、数学的記号の最小使用量で実験データに適合する解析式を見つけることが目的である。
仮説付きニューラルシンボリック回帰(NSRwH)と呼ばれる新しいニューラルシンボリック回帰法を提案する。
実験により,提案した条件付き深層学習モデルは,精度で非条件付き学習モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-20T14:20:48Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - Automated Learning of Interpretable Models with Quantified Uncertainty [0.0]
我々は遺伝子プログラミングに基づくシンボリックレグレッション(GPSR)の新しい枠組みを導入する。
GPSRはモデルエビデンスを用いて、進化の選択段階における置換確率を定式化する。
従来のGPSR実装と比較して、解釈可能性の向上、ノイズに対する堅牢性の向上、オーバーフィッティングの低減が示されている。
論文 参考訳(メタデータ) (2022-04-12T19:56:42Z) - SymbolicGPT: A Generative Transformer Model for Symbolic Regression [3.685455441300801]
シンボル回帰のための新しいトランスフォーマーベース言語モデルであるSybolicGPTを提案する。
本モデルでは,精度,実行時間,データ効率に関して,競合モデルと比較して高い性能を示す。
論文 参考訳(メタデータ) (2021-06-27T03:26:35Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。