論文の概要: Evolving Form and Function: Dual-Objective Optimization in Neural Symbolic Regression Networks
- arxiv url: http://arxiv.org/abs/2502.17393v1
- Date: Mon, 24 Feb 2025 18:20:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:57:34.061966
- Title: Evolving Form and Function: Dual-Objective Optimization in Neural Symbolic Regression Networks
- Title(参考訳): 進化形と機能:ニューラルシンボリック回帰ネットワークにおける二重目的最適化
- Authors: Amanda Bertschinger, James Bagrow, Joshua Bongard,
- Abstract要約: 本研究では、勾配降下と進化計算を組み合わせて、データから発生する方程式の記号的および行動的誤りを最小限に抑えるニューラルネットワークを生成する手法を提案する。
これらの進化したネットワークは、最先端勾配に基づくニューラルシンボル回帰法によって訓練されたネットワークによって生成されたものよりも、より象徴的で行動的に正確な方程式を生成することが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Data increasingly abounds, but distilling their underlying relationships down to something interpretable remains challenging. One approach is genetic programming, which `symbolically regresses' a data set down into an equation. However, symbolic regression (SR) faces the issue of requiring training from scratch for each new dataset. To generalize across all datasets, deep learning techniques have been applied to SR. These networks, however, are only able to be trained using a symbolic objective: NN-generated and target equations are symbolically compared. But this does not consider the predictive power of these equations, which could be measured by a behavioral objective that compares the generated equation's predictions to actual data. Here we introduce a method that combines gradient descent and evolutionary computation to yield neural networks that minimize the symbolic and behavioral errors of the equations they generate from data. As a result, these evolved networks are shown to generate more symbolically and behaviorally accurate equations than those generated by networks trained by state-of-the-art gradient based neural symbolic regression methods. We hope this method suggests that evolutionary algorithms, combined with gradient descent, can improve SR results by yielding equations with more accurate form and function.
- Abstract(参考訳): データはますます増えているが、その基礎となる関係を解釈可能なものへと蒸留することは依然として困難だ。
1つのアプローチは遺伝的プログラミングであり、それは、ある方程式に設定されたデータセットを「象徴的に退化させる」ものである。
しかし、シンボリック回帰(SR)は、新しいデータセットごとにスクラッチからトレーニングを必要とする問題に直面している。
すべてのデータセットを一般化するために、深層学習技術がSRに適用されている。
しかし、これらのネットワークは、NN生成とターゲット方程式を象徴的に比較する、象徴的な目的によってのみ訓練することができる。
しかし、これはこれらの方程式の予測力を考慮せず、これは生成された方程式の予測と実際のデータを比較する行動的目的によって測定することができる。
ここでは、勾配降下と進化計算を組み合わせて、それらがデータから生成する方程式の記号的および行動的誤りを最小限に抑えるニューラルネットワークを生成する方法を提案する。
その結果、これらの進化したネットワークは、最先端勾配に基づくニューラルシンボリック回帰法によって訓練されたネットワークによって生成されるものよりも、より象徴的で行動学的に正確な方程式を生成することが示されている。
この方法では、進化的アルゴリズムと勾配降下が組み合わさって、より正確な形状と関数を持つ方程式を導出することにより、SR結果を改善することを期待する。
関連論文リスト
- A Comparison of Recent Algorithms for Symbolic Regression to Genetic Programming [0.0]
シンボリック回帰は、科学者が理解できる方法でデータをモデル化し、マッピングすることを目的としている。
最近の進歩は、これらの2つの分野のギャップを埋めようと試みている。
論文 参考訳(メタデータ) (2024-06-05T19:01:43Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning for Compression [1.0356366043809717]
モデル圧縮技術として特別に設計された記号回帰に対するニューラルネットワークアプローチである$ttSymbolNet$を提案する。
このフレームワークは、単一のトレーニングプロセスにおいてモデルウェイト、入力特徴、数学的演算子の動的プルーニングを可能にする。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Toward Physically Plausible Data-Driven Models: A Novel Neural Network
Approach to Symbolic Regression [2.7071541526963805]
本稿では,ニューラルネットワークに基づく記号回帰手法を提案する。
非常に小さなトレーニングデータセットとシステムに関する事前知識に基づいて、物理的に妥当なモデルを構築する。
本研究では,TurtleBot 2移動ロボット,磁気操作システム,2つの抵抗の等価抵抗,アンチロックブレーキシステムの長手力の4つの試験システムに対するアプローチを実験的に評価した。
論文 参考訳(メタデータ) (2023-02-01T22:05:04Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Accelerating Understanding of Scientific Experiments with End to End
Symbolic Regression [12.008215939224382]
生データから自由形記号表現を学習する問題に対処するディープニューラルネットワークを開発した。
ニューラルネットワークを、長さの異なるデータテーブルとノイズのレベルからなる合成データセットでトレーニングする。
行動科学の公開データセット上で動作させることで、我々の技術を検証する。
論文 参考訳(メタデータ) (2021-12-07T22:28:53Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。