論文の概要: Symbolic Regression with Fast Function Extraction and Nonlinear Least
Squares Optimization
- arxiv url: http://arxiv.org/abs/2209.09675v1
- Date: Tue, 20 Sep 2022 12:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:04:21.527180
- Title: Symbolic Regression with Fast Function Extraction and Nonlinear Least
Squares Optimization
- Title(参考訳): 高速関数抽出と非線形最小二乗最適化による記号回帰
- Authors: Lukas Kammerer, Gabriel Kronberger, Michael Kommenda
- Abstract要約: 高速関数抽出 (FFX) は記号回帰問題を解くための決定論的アルゴリズムである。
非線形関数の引数にパラメータを追加することでFFXの精度を向上させる。
FFXと我々の新しいアルゴリズムはPennMLベンチマークスイートに適用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast Function Extraction (FFX) is a deterministic algorithm for solving
symbolic regression problems. We improve the accuracy of FFX by adding
parameters to the arguments of nonlinear functions. Instead of only optimizing
linear parameters, we optimize these additional nonlinear parameters with
separable nonlinear least squared optimization using a variable projection
algorithm. Both FFX and our new algorithm is applied on the PennML benchmark
suite. We show that the proposed extensions of FFX leads to higher accuracy
while providing models of similar length and with only a small increase in
runtime on the given data. Our results are compared to a large set of
regression methods that were already published for the given benchmark suite.
- Abstract(参考訳): fast function extraction (ffx) は記号回帰問題を解く決定論的アルゴリズムである。
非線形関数の引数にパラメータを追加することでFFXの精度を向上させる。
線形パラメータを最適化する代わりに、可変射影アルゴリズムを用いて分離可能な非線形最小二乗最適化を行う非線形パラメータを最適化する。
FFXと我々の新しいアルゴリズムはPennMLベンチマークスイートに適用される。
提案するffxの拡張により,同じ長さのモデルを提供しながら,与えられたデータ上でのランタイムをほんの少し増加させるだけで,精度が向上することを示す。
私たちの結果は、与えられたベンチマークスイートですでに公開された大量の回帰メソッドと比較されます。
関連論文リスト
- WENDy for Nonlinear-in-Parameters ODEs [1.9573380763700712]
WEN(Wak-form Estimation of Non-linear Dynamics)は、非線形インである通常の微分方程式の系に対応するために拡張される。
提案手法の実用的メリットを実証するために,一連のベンチマークシステムに結果を提示する。
論文 参考訳(メタデータ) (2025-02-13T01:40:21Z) - A Multi-objective Newton Optimization Algorithm for Hyper-Parameter
Search [0.0]
このアルゴリズムを用いて畳み込みニューラルネットワークの多クラス物体検出問題に対する最適確率しきい値(8パラメータのベクトル)を探索する。
このアルゴリズムは、デフォルト値0.5に比べて総合的に高い真正(TP)と低い偽正(FP)率を生成する。
論文 参考訳(メタデータ) (2024-01-07T21:12:34Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Implicit Parameter-free Online Learning with Truncated Linear Models [51.71216912089413]
パラメータフリーアルゴリズムは、設定された学習率を必要としないオンライン学習アルゴリズムである。
そこで我々は,「単純」なフレーバーを持つ新しい更新によって,切り離された線形モデルを活用できる新しいパラメータフリーアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しい更新は効率的で、各ステップで1つの勾配しか必要とせず、切り捨てられたモデルの最小値をオーバーシュートすることはない。
論文 参考訳(メタデータ) (2022-03-19T13:39:49Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - The flare Package for High Dimensional Linear Regression and Precision
Matrix Estimation in R [45.24529956312764]
本稿では,新しい高次元回帰手法のファミリーを実装したフレアというRパッケージについて述べる。
パッケージフレアは二重精度Cで符号化され、ユーザフレンドリーなインターフェースによってRから呼び出される。
実験により、フレアは効率的で、大きな問題にスケールアップできることが示された。
論文 参考訳(メタデータ) (2020-06-27T18:01:56Z) - Proximal Gradient Algorithm with Momentum and Flexible Parameter Restart
for Nonconvex Optimization [73.38702974136102]
アルゴリズムの高速化のために,パラメータ再起動方式が提案されている。
本論文では,非滑らかな問題を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:06:27Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。