論文の概要: Scaling Up Unbiased Search-based Symbolic Regression
- arxiv url: http://arxiv.org/abs/2506.19626v1
- Date: Tue, 24 Jun 2025 13:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.653511
- Title: Scaling Up Unbiased Search-based Symbolic Regression
- Title(参考訳): 偏見のない検索に基づくシンボリック回帰のスケールアップ
- Authors: Paul Kahlmeyer, Joachim Giesen, Michael Habeck, Henrik Voigt,
- Abstract要約: そこで本研究では, 最先端の記号回帰法により得られた手法よりも, 解の精度が向上することを示す。
特に、体系的な探索は、真の根底にある記号表現を回復する能力の観点から、最先端のシンボル回帰器より優れている。
- 参考スコア(独自算出の注目度): 10.896025071832051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a regression task, a function is learned from labeled data to predict the labels at new data points. The goal is to achieve small prediction errors. In symbolic regression, the goal is more ambitious, namely, to learn an interpretable function that makes small prediction errors. This additional goal largely rules out the standard approach used in regression, that is, reducing the learning problem to learning parameters of an expansion of basis functions by optimization. Instead, symbolic regression methods search for a good solution in a space of symbolic expressions. To cope with the typically vast search space, most symbolic regression methods make implicit, or sometimes even explicit, assumptions about its structure. Here, we argue that the only obvious structure of the search space is that it contains small expressions, that is, expressions that can be decomposed into a few subexpressions. We show that systematically searching spaces of small expressions finds solutions that are more accurate and more robust against noise than those obtained by state-of-the-art symbolic regression methods. In particular, systematic search outperforms state-of-the-art symbolic regressors in terms of its ability to recover the true underlying symbolic expressions on established benchmark data sets.
- Abstract(参考訳): 回帰タスクでは、ラベル付きデータから関数を学び、新しいデータポイントでラベルを予測する。
目標は、小さな予測エラーを達成することです。
シンボリック回帰では、ゴールはより野心的で、小さな予測エラーを発生させる解釈可能な関数を学ぶことである。
この追加のゴールは、回帰で使われる標準的なアプローチ、すなわち、最適化による基底関数の拡張の学習パラメータに対する学習問題をほとんど排除することである。
代わりに、記号回帰法は記号表現の空間において良い解を求める。
典型的に広大な探索空間に対処するために、ほとんどの記号的回帰法は、その構造に関する暗黙的、あるいは、時には明示的な仮定を与える。
ここでは、探索空間の唯一の明らかな構造は、小さな表現、すなわち、いくつかの部分表現に分解できる表現を含むことであると論じる。
そこで本研究では, 最先端の記号回帰法より, 雑音に対してより正確で堅牢な解を求める。
特に、システマティック検索は、確立されたベンチマークデータセット上の真のシンボル表現を回復する能力の観点から、最先端のシンボル回帰器よりも優れている。
関連論文リスト
- Dimension Reduction for Symbolic Regression [11.391067888033765]
シンボリック回帰アルゴリズムを評価するための1つの尺度は、有限標本からシンボリック同値までの公式を復元する能力である。
有効な置換を確実に識別し,様々な種類の最先端のシンボル回帰アルゴリズムの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2025-06-24T11:46:05Z) - What should an AI assessor optimise for? [57.96463917842822]
AIアセスタ(AI Assessmentor)は、他のAIシステムの指標(損失値など)を予測する、外的、理想的には不適切なシステムである。
ここでは、問題に対処する: 常にターゲットメトリックのアセスメントをトレーニングするのが最適か?
本研究では, モノトニック写像と非モノトニック写像を用いた回帰損失と分類スコアについて実験的に検討した。
論文 参考訳(メタデータ) (2025-02-01T08:41:57Z) - Scalable Sparse Regression for Model Discovery: The Fast Lane to Insight [0.0]
シンボリックライブラリに適用されたスパース回帰は、データから直接方程式を学習する強力なツールとして急速に現れてきた。
最近提案された網羅的探索を拡張した汎用モデルスパース回帰アルゴリズムを提案する。
これは、小さな係数に対する非依存的な感度を維持することを目的としており、大きなシンボルライブラリーにとって妥当な計算コストである。
論文 参考訳(メタデータ) (2024-05-14T18:09:43Z) - The Inefficiency of Genetic Programming for Symbolic Regression -- Extended Version [0.0]
我々は,遺伝的プログラミングの探索挙動を,実用上は関係するが限定的な状況下での象徴的回帰のために分析する。
これにより、最良の表現を見つける成功確率を定量化できる。
遺伝的プログラミングの探索効率を意味的一意表現の空間におけるランダム探索と比較する。
論文 参考訳(メタデータ) (2024-04-26T09:49:32Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Interpretable Machine Learning for Science with PySR and
SymbolicRegression.jl [0.0]
PySRは、実用的なシンボルレグレッションのためのオープンソースライブラリである。
高性能な分散バックエンド、フレキシブルな検索アルゴリズム、深層学習パッケージとのインターフェース上に構築されている。
このソフトウェアを説明する際には,科学における記号回帰アルゴリズムの適用性を定量化するために,新しいベンチマーク"EmpiricalBench"を導入する。
論文 参考訳(メタデータ) (2023-05-02T16:31:35Z) - Online Symbolic Regression with Informative Query [23.684346197490605]
我々はtextbfonline textbfsymbolic textbfregression のためのフレームワーク QUOSR を提案する。
各ステップで、QUOSRは履歴データポイントを受け取り、新しい$vx$を生成し、シンボル式をクエリして対応する$y$を取得する。
情報化データを生成することにより,QUOSRは現代的シンボリックレグレッション手法を促進することができることを示す。
論文 参考訳(メタデータ) (2023-02-21T09:13:48Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。