論文の概要: Learning Symbolic Expressions: Mixed-Integer Formulations, Cuts, and
Heuristics
- arxiv url: http://arxiv.org/abs/2102.08351v1
- Date: Tue, 16 Feb 2021 18:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 10:04:29.379546
- Title: Learning Symbolic Expressions: Mixed-Integer Formulations, Cuts, and
Heuristics
- Title(参考訳): シンボリック表現の学習:混合整数定式化、カット、ヒューリスティックス
- Authors: Jongeun Kim, Sven Leyffer, Prasanna Balaprakash
- Abstract要約: 機能形式を仮定せずに回帰関数を学習する問題を考察する。
制限されたMIを解くことで表現木を構築する手法を提案する。
- 参考スコア(独自算出の注目度): 1.1602089225841632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we consider the problem of learning a regression function
without assuming its functional form. This problem is referred to as symbolic
regression. An expression tree is typically used to represent a solution
function, which is determined by assigning operators and operands to the nodes.
The symbolic regression problem can be formulated as a nonconvex mixed-integer
nonlinear program (MINLP), where binary variables are used to assign operators
and nonlinear expressions are used to propagate data values through nonlinear
operators such as square, square root, and exponential. We extend this
formulation by adding new cuts that improve the solution of this challenging
MINLP. We also propose a heuristic that iteratively builds an expression tree
by solving a restricted MINLP. We perform computational experiments and compare
our approach with a mixed-integer program-based method and a
neural-network-based method from the literature.
- Abstract(参考訳): 本稿では,関数形式を仮定せずに回帰関数を学習する問題を検討する。
この問題は象徴的回帰と呼ばれる。
表現木は一般に解関数を表すために使われ、演算子とオペランドをノードに割り当てることで決定される。
シンボリック回帰問題は、非凸混合整数非線形プログラム(MINLP)として定式化することができ、バイナリ変数は演算子を代入するために使用され、非線形式は平方根、指数などの非線形演算子を介してデータ値を伝播するために使用される。
この挑戦的なMINLPの解決を改善する新しい切口を加えることによってこの公式を拡張します。
また、制限されたMINLPを解くことで表現木を反復的に構築するヒューリスティックを提案する。
計算実験を行い,本手法を混合整数型プログラムベース手法とニューラルネットワークベースの手法と比較した。
関連論文リスト
- Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - GINN-LP: A Growing Interpretable Neural Network for Discovering
Multivariate Laurent Polynomial Equations [1.1142444517901018]
本稿では,解釈可能なニューラルネットワークであるGINN-LPを提案する。
私たちの知る限りでは、これは注文に関する事前情報なしで任意の項を発見できる最初のニューラルネットワークである。
GINN-LPは,データセット上での最先端のシンボル回帰手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-18T03:44:29Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Transformation-Interaction-Rational Representation for Symbolic
Regression [0.0]
シンボリック回帰は、しばしば遺伝的プログラミングを使用してデータセットを近似する関数形式を探索する。
この問題を緩和するために、Interaction-Transformationと呼ばれる新しい表現が最近提案された。
本稿では,2つの相互作用変換関数の有理性として,新しい関数形式を定義する表現の拡張を提案する。
論文 参考訳(メタデータ) (2022-04-25T16:53:43Z) - Learning Linearized Assignment Flows for Image Labeling [70.540936204654]
画像ラベリングのための線形化代入フローの最適パラメータを推定するための新しいアルゴリズムを提案する。
この式をKrylov部分空間と低ランク近似を用いて効率的に評価する方法を示す。
論文 参考訳(メタデータ) (2021-08-02T13:38:09Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Symbolic Regression using Mixed-Integer Nonlinear Optimization [9.638685454900047]
シンボリック回帰(SR)問題は、機械学習において難しい問題である。
混合整数非線形最適化と明示列挙法を組み合わせたハイブリッドアルゴリズムを提案する。
我々のアルゴリズムは、いくつかの合成データセットに対して、最先端のSRソフトウェアと最近の物理学に触発されたAI Feynmanという手法で競合していることを示す。
論文 参考訳(メタデータ) (2020-06-11T20:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。