論文の概要: Breaking the Simplification Bottleneck in Amortized Neural Symbolic Regression
- arxiv url: http://arxiv.org/abs/2602.08885v3
- Date: Wed, 11 Feb 2026 16:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 15:03:20.047652
- Title: Breaking the Simplification Bottleneck in Amortized Neural Symbolic Regression
- Title(参考訳): Amortized Neural Symbolic Regressionにおける単純化ボトルネックの破断
- Authors: Paul Saegert, Ullrich Köthe,
- Abstract要約: SimpliPyはルールベースの単純化エンジンで、SymPyよりも100倍のスピードアップを実現している。
この利点をFlash-ANSRフレームワークで示しています。
- 参考スコア(独自算出の注目度): 8.351253396371686
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Symbolic regression (SR) aims to discover interpretable analytical expressions that accurately describe observed data. Amortized SR promises to be much more efficient than the predominant genetic programming SR methods, but currently struggles to scale to realistic scientific complexity. We find that a key obstacle is the lack of a fast reduction of equivalent expressions to a concise normalized form. Amortized SR has addressed this by general-purpose Computer Algebra Systems (CAS) like SymPy, but the high computational cost severely limits training and inference speed. We propose SimpliPy, a rule-based simplification engine achieving a 100-fold speed-up over SymPy at comparable quality. This enables substantial improvements in amortized SR, including scalability to much larger training sets, more efficient use of the per-expression token budget, and systematic training set decontamination with respect to equivalent test expressions. We demonstrate these advantages in our Flash-ANSR framework, which achieves much better accuracy than amortized baselines (NeSymReS, E2E) on the FastSRB benchmark. Moreover, it performs on par with state-of-the-art direct optimization (PySR) while recovering more concise instead of more complex expressions with increasing inference budget.
- Abstract(参考訳): 記号回帰(SR)は、観測データを正確に記述した解釈可能な解析式を発見することを目的としている。
Amortized SRは、主要な遺伝的プログラミングSR法よりもはるかに効率が良いと約束しているが、現在は現実的な科学的複雑さにスケールするのに苦労している。
重要な障害は、簡潔な正規化形式への等価表現の高速化が欠如していることである。
Amortized SRはSymPyのような汎用コンピュータ代数システム(CAS)によってこの問題に対処しているが、高い計算コストはトレーニングと推論速度を著しく制限している。
我々はSimpliPyを提案する。SimpliPyはSimpliPyよりも100倍の高速化を実現するルールベースの単純化エンジンである。
これにより、より大規模なトレーニングセットへのスケーラビリティ、表現単位のトークン予算の効率的な使用、同等のテスト式に対する体系的なトレーニングセットの汚染といった、償却SRの大幅な改善が可能になる。
我々はFlash-ANSRフレームワークでこれらの利点を実証し、FastSRBベンチマークのアモートされたベースライン(NeSymReS, E2E)よりもはるかに高い精度を実現した。
さらに、最先端の直接最適化(PySR)と同等に動作し、推論予算の増大とともにより複雑な式ではなく、より簡潔に回復する。
関連論文リスト
- Unleashing Degradation-Carrying Features in Symmetric U-Net: Simpler and Stronger Baselines for All-in-One Image Restoration [52.82397287366076]
オールインワン画像復元は、統合された枠組み内で様々な劣化(ノイズ、ぼかし、悪天候など)を扱うことを目的としている。
本研究では, 優れた特徴抽出法により, 劣化伝達情報を本質的にエンコードする, 重要な知見を明らかにする。
我々の対称設計は固有の劣化信号を頑健に保存し、スキップ接続に単純な加法融合を施す。
論文 参考訳(メタデータ) (2025-12-11T12:20:31Z) - Current Challenges of Symbolic Regression: Optimization, Selection, Model Simplification, and Benchmarking [0.0]
記号回帰(SR)は、変数間の関係を記述する数学的表現を見つけることを目的としている。
現在の手法はSRの景観を理解するために常に再評価されなければならない。
この論文は、博士課程全体で行われた一連の研究を通じて、これらの課題に対処する。
論文 参考訳(メタデータ) (2025-12-01T13:48:07Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - Sparse Interpretable Deep Learning with LIES Networks for Symbolic Regression [22.345828337550575]
記号回帰は、データを正確に記述する閉形式の数学的表現を発見することを目的としている。
既存のSR手法は、しばしば人口に基づく探索や自己回帰モデリングに依存している。
LIES(Logarithm, Identity, Exponential, Sine)は,シンボル表現のモデル化に最適化された,解釈可能なプリミティブアクティベーションを備えたニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2025-06-09T22:05:53Z) - AdaptSR: Low-Rank Adaptation for Efficient and Scalable Real-World Super-Resolution [50.584551250242235]
AdaptSRは、現実世界のタスクにバイキュービックトレーニングされたSRモデルを効率的に再利用する低ランク適応フレームワークである。
実験の結果,AdaptSRはPSNRで最大4dB,実際のSRベンチマークで2%,GAN法と拡散型SR法より優れていた。
論文 参考訳(メタデータ) (2025-03-10T18:03:18Z) - Ab Initio Nonparametric Variable Selection for Scalable Symbolic Regression with Large $p$ [2.222138965069487]
シンボリック回帰(SR)は、データの非線形関係を特徴付けるシンボリック表現を発見するための強力な手法である。
既存のSR法は、多くの入力変数を持つデータセットにスケールしないが、現代の科学的応用では一般的である。
本稿では,Ab初期非パラメトリック変数選択とSRを組み合わせたPAN+SRを提案する。
論文 参考訳(メタデータ) (2024-10-17T15:41:06Z) - Efficient Single Image Super-Resolution with Entropy Attention and Receptive Field Augmentation [34.50541063621832]
本稿では,新しいエントロピーアテンション(EA)とシフトする大きなカーネルアテンション(SLKA)からなる,効率的な単一画像超解像(SISR)モデルを提案する。
EAはガウス分布で条件付けられた中間特徴のエントロピーを増大させ、その後の推論に対してより情報的な入力を提供する。
SLKAは、チャネルシフトの助けを借りてSRモデルの受容領域を拡張し、階層的特徴の多様性を高めることを好む。
論文 参考訳(メタデータ) (2024-08-08T02:03:10Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - FasterPose: A Faster Simple Baseline for Human Pose Estimation [65.8413964785972]
本稿では,高速ポーズ推定のためのLR表現を用いた費用対効果ネットワークの設計パラダイムであるFasterPoseを提案する。
我々は,FasterPoseのトレーニング挙動について検討し,収束を加速する新しい回帰クロスエントロピー(RCE)損失関数を定式化する。
従来のポーズ推定ネットワークと比較すると,FLOPの58%が減少し,精度が1.3%向上した。
論文 参考訳(メタデータ) (2021-07-07T13:39:08Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。