論文の概要: $\mathcal{C}^1$-approximation with rational functions and rational neural networks
- arxiv url: http://arxiv.org/abs/2508.19672v1
- Date: Wed, 27 Aug 2025 08:31:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.560943
- Title: $\mathcal{C}^1$-approximation with rational functions and rational neural networks
- Title(参考訳): 有理関数と有理ニューラルネットワークを用いた$\mathcal{C}^1$-近似
- Authors: Erion Morina, Martin Holler,
- Abstract要約: 正則関数は有理関数と有理ニューラルネットワークの両方で$mathcalC1$-normで近似できることを示す。
その結果,有理ニューラルネットワークに対する$mathcalC1$-approximationの結果が,$EQLdiv$とParFamアーキテクチャで得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that suitably regular functions can be approximated in the $\mathcal{C}^1$-norm both with rational functions and rational neural networks, including approximation rates with respect to width and depth of the network, and degree of the rational functions. As consequence of our results, we further obtain $\mathcal{C}^1$-approximation results for rational neural networks with the $\text{EQL}^\div$ and ParFam architecture, both of which are important in particular in the context of symbolic regression for physical law learning.
- Abstract(参考訳): 正則関数は有理関数と有理ニューラルネットワークの両方で$\mathcal{C}^1$-normで近似できることを示す。
その結果,有理ニューラルネットワークに対する$\mathcal{C}^1$-approximationの結果,$\text{EQL}^\div$とParFamアーキテクチャが得られた。
関連論文リスト
- FACT: the Features At Convergence Theorem for neural networks [11.578851413831247]
非ゼロウェイト崩壊の訓練において,ニューラルネットワークの重みが収束時に満足する自己整合方程式を与えるコンバージェンス定理 (FACT) の特徴を証明した。
我々はこの関係を実証的に検証し、神経的特徴が収束時のFACTを本当に満足していることを示した。
Radhakrishnanらの"Recursive Feature Machines"を修正して、FACTに従うようにすることで、新しい学習アルゴリズムであるFACT-RFMにたどり着く。
論文 参考訳(メタデータ) (2025-07-08T03:52:48Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Theory of Deep Convolutional Neural Networks III: Approximating Radial
Functions [7.943024117353317]
我々は、2つの畳み込み層、ダウン演算子、完全に接続された層からなるディープニューラルネットワークのファミリーを考える。
ネットワーク構造は、畳み込み層の数と完全に連結された層の幅を決定する2つの構造パラメータに依存する。
論文 参考訳(メタデータ) (2021-07-02T08:22:12Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Theory of Deep Convolutional Neural Networks II: Spherical Analysis [9.099589602551573]
単位球面$mathbbSd-1$ of $mathbbRd$ 上の近似関数に適用された深部畳み込みニューラルネットワークの族を考える。
我々の解析は、近似関数がソボレフ空間 $Wr_infty (mathbbSd-1)$ に$r>0$ あるいは加法リッジ形式を取るとき、一様近似の速度を示す。
論文 参考訳(メタデータ) (2020-07-28T14:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。