論文の概要: GINN-LP: A Growing Interpretable Neural Network for Discovering
Multivariate Laurent Polynomial Equations
- arxiv url: http://arxiv.org/abs/2312.10913v2
- Date: Thu, 15 Feb 2024 03:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 21:05:10.614900
- Title: GINN-LP: A Growing Interpretable Neural Network for Discovering
Multivariate Laurent Polynomial Equations
- Title(参考訳): GINN-LP:多変量ローラン多項式方程式の探索のための成長する解釈可能なニューラルネットワーク
- Authors: Nisal Ranasinghe, Damith Senanayake, Sachith Seneviratne, Malin
Premaratne, Saman Halgamuge
- Abstract要約: 本稿では,解釈可能なニューラルネットワークであるGINN-LPを提案する。
私たちの知る限りでは、これは注文に関する事前情報なしで任意の項を発見できる最初のニューラルネットワークである。
GINN-LPは,データセット上での最先端のシンボル回帰手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.1142444517901018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional machine learning is generally treated as a black-box optimization
problem and does not typically produce interpretable functions that connect
inputs and outputs. However, the ability to discover such interpretable
functions is desirable. In this work, we propose GINN-LP, an interpretable
neural network to discover the form and coefficients of the underlying equation
of a dataset, when the equation is assumed to take the form of a multivariate
Laurent Polynomial. This is facilitated by a new type of interpretable neural
network block, named the "power-term approximator block", consisting of
logarithmic and exponential activation functions. GINN-LP is end-to-end
differentiable, making it possible to use backpropagation for training. We
propose a neural network growth strategy that will enable finding the suitable
number of terms in the Laurent polynomial that represents the data, along with
sparsity regularization to promote the discovery of concise equations. To the
best of our knowledge, this is the first model that can discover arbitrary
multivariate Laurent polynomial terms without any prior information on the
order. Our approach is first evaluated on a subset of data used in SRBench, a
benchmark for symbolic regression. We first show that GINN-LP outperforms the
state-of-the-art symbolic regression methods on datasets generated using 48
real-world equations in the form of multivariate Laurent polynomials. Next, we
propose an ensemble method that combines our method with a high-performing
symbolic regression method, enabling us to discover non-Laurent polynomial
equations. We achieve state-of-the-art results in equation discovery, showing
an absolute improvement of 7.1% over the best contender, by applying this
ensemble method to 113 datasets within SRBench with known ground-truth
equations.
- Abstract(参考訳): 従来の機械学習は一般にブラックボックス最適化問題として扱われ、通常、入力と出力を繋ぐ解釈可能な関数を生成しない。
しかし、そのような解釈可能な関数を発見する能力は望ましい。
本研究では,この方程式が多変量ローレント多項式の形をとると仮定された場合,データセットの基底方程式の形式と係数を解釈可能なニューラルネットワークであるGINN-LPを提案する。
これは、対数的および指数的活性化関数からなる「パワーターム近似ブロック」と呼ばれる新しいタイプの解釈可能なニューラルネットワークブロックによって促進される。
GINN-LPはエンドツーエンドの差別化が可能で、トレーニングにバックプロパゲーションを使用することができる。
本研究では,データを表すローラン多項式の適切な項数を見つけることを可能にするニューラルネットワーク成長戦略と,簡潔な方程式の発見を促進するスパーシティ正規化を提案する。
我々の知る限りでは、これは順序に関する事前情報なしで任意の多変量ローラン多項式項を発見できる最初のモデルである。
このアプローチはまず,シンボリック回帰のベンチマークであるsrbenchで使用されるデータのサブセット上で評価する。
GINN-LPは,48個の実世界の方程式を多変量ローレント多項式の形で生成したデータセットに対して,最先端の記号回帰法より優れることを示す。
次に,本手法を高性能な記号回帰法と組み合わせたアンサンブル法を提案し,非ローラン多項式方程式の発見を可能にする。
このアンサンブル法をSRBench内の113個のデータセットに適用し, 既知の接地トラス方程式を用いて, 絶対的な7.1%の精度向上を図った。
関連論文リスト
- Symmetric Single Index Learning [46.7352578439663]
1つの一般的なモデルはシングルインデックスモデルであり、ラベルは未知のリンク関数を持つ未知の線形射影によって生成される。
我々は、対称ニューラルネットワークの設定において、単一インデックス学習を検討する。
論文 参考訳(メタデータ) (2023-10-03T14:59:00Z) - Bayesian polynomial neural networks and polynomial neural ordinary
differential equations [4.550705124365277]
ニューラルネットワークとニューラル常微分方程式(ODE)によるシンボリック回帰は、多くの科学・工学問題の方程式回復のための強力なアプローチである。
これらの手法はモデルパラメータの点推定を提供しており、現在ノイズの多いデータに対応できない。
この課題は、ラプラス近似、マルコフ連鎖モンテカルロサンプリング法、ベイズ変分推定法の開発と検証によって解決される。
論文 参考訳(メタデータ) (2023-08-17T05:42:29Z) - TMPNN: High-Order Polynomial Regression Based on Taylor Map
Factorization [0.0]
本稿では,テイラー写像の分解に基づく高次回帰を構築する手法を提案する。
UCIオープンアクセスデータセットのベンチマークにより,提案手法が最先端の回帰手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-07-30T01:52:00Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Bagged Polynomial Regression and Neural Networks [0.0]
時系列とデータセットの回帰は、ニューラルネットワークと同じ関数クラスを近似することができる。
textitbagged regression (BPR)は、ニューラルネットワークの魅力的な代替品である。
BPRは、衛星データを用いた作物分類において、ニューラルネットワークと同様に機能する。
論文 参考訳(メタデータ) (2022-05-17T19:55:56Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Deep Learning with Functional Inputs [0.0]
本稿では,機能データをフィードフォワードニューラルネットワークに統合する手法を提案する。
この手法の副産物は、最適化プロセス中に可視化できる動的な機能的重みの集合である。
このモデルは、新しいデータの予測や真の機能的重みの回復など、多くの文脈でうまく機能することが示されている。
論文 参考訳(メタデータ) (2020-06-17T01:23:00Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。