論文の概要: In-Context Symbolic Regression for Robustness-Improved Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2603.15250v1
- Date: Mon, 16 Mar 2026 13:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.309841
- Title: In-Context Symbolic Regression for Robustness-Improved Kolmogorov-Arnold Networks
- Title(参考訳): ロバストネスを改良したコルモゴロフ・アルノルドネットワークの文脈内シンボリック回帰
- Authors: Francesco Sovrano, Lidia Losavio, Giulia Vilone, Marc Langheinrich,
- Abstract要約: シンボリック回帰は、ブラックボックス予測器を機械学習で検査および検証可能な分析式に置き換えることを目的としている。
Kolmogorov-Arnold Pursuit Networks (KANs) はこの目的に適している。
しかし、実際には記号抽出はボトルネックであり、標準のkan-to-symbolアプローチは各学習エッジ関数に微妙な分離で適合する。
- 参考スコア(独自算出の注目度): 3.7163623763519733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic regression aims to replace black-box predictors with concise analytical expressions that can be inspected and validated in scientific machine learning. Kolmogorov-Arnold Networks (KANs) are well suited to this goal because each connection between adjacent units (an "edge") is parametrised by a learnable univariate function that can, in principle, be replaced by a symbolic operator. In practice, however, symbolic extraction is a bottleneck: the standard KAN-to-symbol approach fits operators to each learned edge function in isolation, making the discrete choice sensitive to initialisation and non-convex parameter fitting, and ignoring how local substitutions interact through the full network. We study in-context symbolic regression for operator extraction in KANs, and present two complementary instantiations. Greedy in-context Symbolic Regression (GSR) performs greedy, in-context selection by choosing edge replacements according to end-to-end loss improvement after brief fine-tuning. Gated Matching Pursuit (GMP) amortises this in-context selection by training a differentiable gated operator layer that places an operator library behind sparse gates on each edge; after convergence, gates are discretised (optionally followed by a short in-context greedy refinement pass). We quantify robustness via one-factor-at-a-time (OFAT) hyper-parameter sweeps and assess both predictive error and qualitative consistency of recovered formulas. Across several experiments, greedy in-context symbolic regression achieves up to 99.8% reduction in median OFAT test MSE.
- Abstract(参考訳): シンボリック回帰は、ブラックボックス予測器を科学的機械学習で検査し検証できる簡潔な分析式に置き換えることを目的としている。
Kolmogorov-Arnold Networks (KAN) は、隣接する単位(エッジ)間の各接続が、原則として記号演算子に置き換えられる学習可能な単変数関数によってパラメトリされるので、この目的によく適している。
しかし実際には、シンボリック抽出はボトルネックであり、標準のkan-to-symbolアプローチは、学習した各エッジ関数に独立に演算子を適合させ、初期化や非凸パラメータのフィッティングに敏感な離散的な選択を可能にし、局所置換がフルネットワークを介してどのように相互作用するかを無視している。
In-context symbolic regression for operator extract in Kans, and present following complementary instantiations。
グレディ・イン・コンテクスト・シンボリック・レグレッション(GSR)は、短時間の微調整後、エンド・ツー・エンドの損失改善に応じてエッジ置換を選択することで、グレディ・イン・コンテクスト・イン・コンテクスト選択を行う。
GMP (Gated Matching Pursuit) はこのコンテキスト内選択を、各エッジにスパースゲートの背後にオペレータライブラリを置く、微分可能なゲート演算子層をトレーニングすることで改善する。
我々は, 1-factor-at-a-time (OFAT) ハイパーパラメータスイープを用いてロバスト性を定量化し, 得られた公式の予測誤差と定性的整合性の両方を評価する。
いくつかの実験で、greedy in-contextシンボリックレグレッションは、OFATテストの中央値MSEを99.8%まで減少させる。
関連論文リスト
- GENSR: Symbolic Regression Based in Equation Generative Space [15.186848349610363]
GenSRは、ジェネレーティブな宇宙ベースのSRフレームワークである。
ベイズの観点から、GenSR は SR タスクを条件分布 $p(mathrmEqu. mid mathrmNum.)$ の最大化として再構成する。
論文 参考訳(メタデータ) (2026-02-24T05:14:34Z) - Gaussian Match-and-Copy: A Minimalist Benchmark for Studying Transformer Induction [44.83333974000826]
本稿では,2階相関信号による長距離検索を分離するミニマリストベンチマークを提案する。
数値的な研究により、このタスクは変換器のマッチング・アンド・コピー回路開発における重要な質的な側面を保っていることが示されている。
明示的な技術的条件下での経験的損失を解消するGD軌道に対して,この極大アライメントを証明した。
論文 参考訳(メタデータ) (2026-02-07T14:18:11Z) - Verifying Closed-Loop Contractivity of Learning-Based Controllers via Partitioning [52.23804865017831]
本稿では,ニューラルネットワークによるパラメータ化を行う非線形制御系における閉ループ収縮の検証問題に対処する。
我々は、対称メッツラー行列の優越的固有値が非正であることを確かめるために、閉ループの縮約性に対するトラクタブルでスケーラブルな十分条件を導出する。
論文 参考訳(メタデータ) (2025-12-01T23:06:56Z) - Parameter-Aware Ensemble SINDy for Interpretable Symbolic SGS Closure [0.0]
この研究は、解釈可能な偏微分方程式とサブグリッドスケール閉包を発見するためのスケーラブルでパラメータ対応のスパース回帰フレームワークを設計する。
SINDy(Sparse Identification of Dynamics)に基づいて構築されたこのアプローチは、4つの拡張を通じて鍵となる制限に対処する。
論文 参考訳(メタデータ) (2025-08-13T09:37:57Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Parseval Convolution Operators and Neural Networks [16.78532039510369]
まず、Parseval畳み込み演算子をエネルギー保存フィルタバンクのクラスとして同定する。
次に,基本Parsevalモジュールの連鎖によるフィルタバンクの設計・特定のための構築的アプローチを提案する。
生体医用画像の反復的再構成のためのCNNアルゴリズムの設計により,これらのツールの使用例を示す。
論文 参考訳(メタデータ) (2024-08-19T13:31:16Z) - ISR: Invertible Symbolic Regression [7.499800486499609]
Invertible Symbolic Regression(インバーティブル・シンボリック・レグレッション・レグレッション)は、あるデータセットの入力と出力の間の分析的関係を生成する機械学習技術である。
INNのアフィン結合ブロックをシンボリック・フレームワークに変換し、エンドツーエンドで微分可能なシンボリック・インバータブル・アーキテクチャを実現する。
ISRは密度推定タスクの(象徴的な)正規化フローとして機能することを示す。
論文 参考訳(メタデータ) (2024-05-10T23:20:46Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。