論文の概要: Interactive Symbolic Regression through Offline Reinforcement Learning: A Co-Design Framework
- arxiv url: http://arxiv.org/abs/2402.05306v2
- Date: Thu, 13 Feb 2025 00:29:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:46:14.969568
- Title: Interactive Symbolic Regression through Offline Reinforcement Learning: A Co-Design Framework
- Title(参考訳): オフライン強化学習による対話型シンボリック回帰:共同設計フレームワーク
- Authors: Yuan Tian, Wenqi Zhou, Michele Viscione, Hao Dong, David Kammer, Olga Fink,
- Abstract要約: シンボリック回帰は、観測データから基礎となる数学的および物理的関係を明らかにする大きな可能性を秘めている。
現在の最先端のアプローチは、通常、ドメインエキスパートの事前知識の統合を考慮していない。
本稿では,大規模な記号回帰のための高度な対話型フレームワークであるSym-Qを提案する。
- 参考スコア(独自算出の注目度): 11.804368618793273
- License:
- Abstract: Symbolic Regression (SR) holds great potential for uncovering underlying mathematical and physical relationships from observed data. However, the vast combinatorial space of possible expressions poses significant challenges for both online search methods and pre-trained transformer models. Additionally, current state-of-the-art approaches typically do not consider the integration of domain experts' prior knowledge and do not support iterative interactions with the model during the equation discovery process. To address these challenges, we propose the Symbolic Q-network (Sym-Q), an advanced interactive framework for large-scale symbolic regression. Unlike previous large-scale transformer-based SR approaches, Sym-Q leverages reinforcement learning without relying on a transformer-based decoder. This formulation allows the agent to learn through offline reinforcement learning using any type of tree encoder, enabling more efficient training and inference. Furthermore, we propose a co-design mechanism, where the reinforcement learning-based Sym-Q facilitates effective interaction with domain experts at any stage of the equation discovery process. Users can dynamically modify generated nodes of the expression, collaborating with the agent to tailor the mathematical expression to best fit the problem and align with the assumed physical laws, particularly when there is prior partial knowledge of the expected behavior. Our experiments demonstrate that the pre-trained Sym-Q surpasses existing SR algorithms on the challenging SSDNC benchmark. Moreover, we experimentally show on real-world cases that its performance can be further enhanced by the interactive co-design mechanism, with Sym-Q achieving greater performance gains than other state-of-the-art models. Our reproducible code is available at https://github.com/EPFL-IMOS/Sym-Q.
- Abstract(参考訳): シンボリック回帰(SR)は、観測データから基礎となる数学的・物理的関係を明らかにする大きな可能性を秘めている。
しかし、可能な表現の膨大な組み合わせ空間は、オンライン検索法と事前学習されたトランスフォーマーモデルの両方に重大な課題をもたらす。
さらに、現在の最先端のアプローチは、通常、ドメインエキスパートの事前知識の統合を考慮せず、方程式発見プロセス中にモデルとの反復的な相互作用をサポートしない。
これらの課題に対処するために,大規模な記号回帰のための高度な対話型フレームワークであるSym-Qを提案する。
以前の大規模トランスフォーマーベースのSRアプローチとは異なり、Sym-Qはトランスフォーマーベースのデコーダに頼ることなく強化学習を利用する。
この定式化により、エージェントは任意の種類のツリーエンコーダを使用してオフラインの強化学習を通じて学習することができ、より効率的なトレーニングと推論が可能になる。
さらに、強化学習に基づくSym-Qは、方程式発見プロセスの任意の段階において、ドメインエキスパートとの効果的な相互作用を促進する、協調設計機構を提案する。
ユーザーは、生成した表現のノードを動的に修正し、エージェントと協調して問題に最もよく適合するように数学的表現を調整し、仮定された物理法則、特に期待される振る舞いについて事前の部分的知識がある場合に、一致させることができる。
実験により,事前学習したSym-Qは,SSDNCベンチマークにおいて既存のSRアルゴリズムを超越していることが示された。
さらに,Sym-Qが他の最先端モデルよりも高い性能向上を実現し,インタラクティブな協調設計機構によってその性能をさらに向上できる実世界の事例を実験的に示す。
私たちの再現可能なコードはhttps://github.com/EPFL-IMOS/Sym-Q.comで公開されています。
関連論文リスト
- Discovering symbolic expressions with parallelized tree search [59.92040079807524]
記号回帰は、データから簡潔で解釈可能な数学的表現を発見する能力のおかげで、科学研究において重要な役割を果たす。
既存のアルゴリズムは、複雑性の問題に対処する際の精度と効率の重要なボトルネックに直面してきた。
本稿では,限定データから汎用数学的表現を効率的に抽出する並列木探索(PTS)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-05T10:41:15Z) - Expressive Symbolic Regression for Interpretable Models of Discrete-Time Dynamical Systems [0.0]
このタスクのためのシンボリックニューラルネットワーク訓練表現(SymANNTEx)アーキテクチャ
修正したSymanNTExモデルでは,単一状態のマップを適切に識別し,二状態のアトラクタの近似に適度に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-05T05:05:29Z) - Shape Arithmetic Expressions: Advancing Scientific Discovery Beyond Closed-Form Equations [56.78271181959529]
GAM(Generalized Additive Models)は、変数とターゲットの間の非線形関係をキャプチャできるが、複雑な特徴相互作用をキャプチャすることはできない。
本稿では,GAMのフレキシブルな形状関数と,数学的表現に見られる複雑な特徴相互作用を融合させる形状表現算術(SHARE)を提案する。
また、標準制約を超えた表現の透明性を保証するSHAREを構築するための一連のルールを設計する。
論文 参考訳(メタデータ) (2024-04-15T13:44:01Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - Discovering interpretable elastoplasticity models via the neural
polynomial method enabled symbolic regressions [0.0]
従来のニューラルネットワークの弾塑性モデルは、しばしば解釈可能性に欠けると見なされる。
本稿では,人間専門家が解釈可能な数学的モデルを返す2段階の機械学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T22:22:32Z) - Controllable Neural Symbolic Regression [10.128755371375572]
記号回帰では、数学的記号の最小使用量で実験データに適合する解析式を見つけることが目的である。
仮説付きニューラルシンボリック回帰(NSRwH)と呼ばれる新しいニューラルシンボリック回帰法を提案する。
実験により,提案した条件付き深層学習モデルは,精度で非条件付き学習モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-20T14:20:48Z) - Automated Learning of Interpretable Models with Quantified Uncertainty [0.0]
我々は遺伝子プログラミングに基づくシンボリックレグレッション(GPSR)の新しい枠組みを導入する。
GPSRはモデルエビデンスを用いて、進化の選択段階における置換確率を定式化する。
従来のGPSR実装と比較して、解釈可能性の向上、ノイズに対する堅牢性の向上、オーバーフィッティングの低減が示されている。
論文 参考訳(メタデータ) (2022-04-12T19:56:42Z) - SymbolicGPT: A Generative Transformer Model for Symbolic Regression [3.685455441300801]
シンボル回帰のための新しいトランスフォーマーベース言語モデルであるSybolicGPTを提案する。
本モデルでは,精度,実行時間,データ効率に関して,競合モデルと比較して高い性能を示す。
論文 参考訳(メタデータ) (2021-06-27T03:26:35Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。