論文の概要: Dimension Reduction for Symbolic Regression
- arxiv url: http://arxiv.org/abs/2506.19537v1
- Date: Tue, 24 Jun 2025 11:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.610045
- Title: Dimension Reduction for Symbolic Regression
- Title(参考訳): シンボリック回帰のための次元削減
- Authors: Paul Kahlmeyer, Markus Fischer, Joachim Giesen,
- Abstract要約: シンボリック回帰アルゴリズムを評価するための1つの尺度は、有限標本からシンボリック同値までの公式を復元する能力である。
有効な置換を確実に識別し,様々な種類の最先端のシンボル回帰アルゴリズムの性能を著しく向上させることを示す。
- 参考スコア(独自算出の注目度): 11.391067888033765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solutions of symbolic regression problems are expressions that are composed of input variables and operators from a finite set of function symbols. One measure for evaluating symbolic regression algorithms is their ability to recover formulae, up to symbolic equivalence, from finite samples. Not unexpectedly, the recovery problem becomes harder when the formula gets more complex, that is, when the number of variables and operators gets larger. Variables in naturally occurring symbolic formulas often appear only in fixed combinations. This can be exploited in symbolic regression by substituting one new variable for the combination, effectively reducing the number of variables. However, finding valid substitutions is challenging. Here, we address this challenge by searching over the expression space of small substitutions and testing for validity. The validity test is reduced to a test of functional dependence. The resulting iterative dimension reduction procedure can be used with any symbolic regression approach. We show that it reliably identifies valid substitutions and significantly boosts the performance of different types of state-of-the-art symbolic regression algorithms.
- Abstract(参考訳): 記号回帰問題の解は、有限個の関数記号からなる入力変数と演算子からなる式である。
シンボリック回帰アルゴリズムを評価するための1つの尺度は、有限標本からシンボリック同値までの公式を復元する能力である。
予想されたことではないが、計算式がより複雑になると、つまり変数や演算子の数が大きくなると、回復問題は難しくなる。
自然発生の記号式における変数は、しばしば固定された組み合わせにのみ現れる。
これは、この組み合わせに1つの新しい変数を置換することで、シンボル回帰において利用することができ、変数の数を効果的に減らすことができる。
しかし、有効な代替品を見つけることは困難である。
ここでは,小置換の表現空間を探索し,妥当性を検証することで,この問題に対処する。
妥当性テストは機能依存のテストに還元される。
結果として生じる反復次元減少手順は、任意のシンボリック回帰アプローチで使用することができる。
有効な置換を確実に識別し,様々な種類の最先端のシンボル回帰アルゴリズムの性能を著しく向上させることを示す。
関連論文リスト
- Scaling Up Unbiased Search-based Symbolic Regression [10.896025071832051]
そこで本研究では, 最先端の記号回帰法により得られた手法よりも, 解の精度が向上することを示す。
特に、体系的な探索は、真の根底にある記号表現を回復する能力の観点から、最先端のシンボル回帰器より優れている。
論文 参考訳(メタデータ) (2025-06-24T13:47:19Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - A Hybrid System for Systematic Generalization in Simple Arithmetic
Problems [70.91780996370326]
本稿では,記号列に対する合成的および体系的推論を必要とする算術的問題を解くことができるハイブリッドシステムを提案する。
提案システムは,最も単純なケースを含むサブセットでのみ訓練された場合においても,ネストした数式を正確に解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-29T18:35:41Z) - Scalable Neural Symbolic Regression using Control Variables [7.725394912527969]
本稿では,制御変数を利用したスケーラブルなシンボル回帰モデルであるScaleSRを提案し,精度とスケーラビリティを両立させる。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,複数の変数を持つ数学的表現の発見において,提案した ScaleSR は最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Learning Symbolic Expressions: Mixed-Integer Formulations, Cuts, and
Heuristics [1.1602089225841632]
機能形式を仮定せずに回帰関数を学習する問題を考察する。
制限されたMIを解くことで表現木を構築する手法を提案する。
論文 参考訳(メタデータ) (2021-02-16T18:39:14Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。