論文の概要: Efficient Approximation to Analytic and $L^p$ functions by Height-Augmented ReLU Networks
- arxiv url: http://arxiv.org/abs/2603.11128v1
- Date: Wed, 11 Mar 2026 15:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.534043
- Title: Efficient Approximation to Analytic and $L^p$ functions by Height-Augmented ReLU Networks
- Title(参考訳): 高拡張ReLUネットワークによる解析的および$L^p$関数の効率的な近似
- Authors: ZeYu Li, FengLei Fan, TieYong Zeng,
- Abstract要約: この研究は、ニューラルネットワーク近似理論の2つの基本的な限界に対処する。
三次元ネットワークアーキテクチャは、ソートゥース関数のより効率的な表現を可能にする。
初めて、一般の$Lp$函数に対する高次数の量的および非漸近近似を導出した。
- 参考スコア(独自算出の注目度): 34.433370923614966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses two fundamental limitations in neural network approximation theory. We demonstrate that a three-dimensional network architecture enables a significantly more efficient representation of sawtooth functions, which serves as the cornerstone in the approximation of analytic and $L^p$ functions. First, we establish substantially improved exponential approximation rates for several important classes of analytic functions and offer a parameter-efficient network design. Second, for the first time, we derive a quantitative and non-asymptotic approximation of high orders for general $L^p$ functions. Our techniques advance the theoretical understanding of the neural network approximation in fundamental function spaces and offer a theoretically grounded pathway for designing more parameter-efficient networks.
- Abstract(参考訳): この研究は、ニューラルネットワーク近似理論の2つの基本的な限界に対処する。
本稿では,3次元ネットワークアーキテクチャにより,解析関数と$L^p$関数の近似の基盤となる,ソートゥース関数のより効率的な表現が可能になることを実証する。
まず、解析関数のいくつかの重要なクラスに対して指数関数近似率を大幅に改善し、パラメータ効率の良いネットワーク設計を提供する。
第二に、初めて一般の$L^p$関数に対する高次数の量的および非漸近近似を導出する。
我々の手法は、基本関数空間におけるニューラルネットワーク近似の理論的理解を促進し、よりパラメータ効率の良いネットワークを設計するための理論的基盤となる経路を提供する。
関連論文リスト
- Approximation Rates of Shallow Neural Networks: Barron Spaces, Activation Functions and Optimality Analysis [7.106210679849991]
これは、近似速度の次元への依存性と、バロン函数空間内で近似される函数の滑らかさに焦点をあてる。
我々は、バロン空間やソボレフ空間における関数の様々なノルムにおける最適近似率を確立し、次元性の呪いを確認する。
論文 参考訳(メタデータ) (2025-10-21T08:08:35Z) - Function Forms of Simple ReLU Networks with Random Hidden Weights [1.2289361708127877]
無限幅限界における2層ReLUニューラルネットワークの関数空間ダイナミクスについて検討する。
ステアリング学習におけるフィッシャー情報行列の役割を強調した。
この研究は、広いニューラルネットワークを理解するための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-23T13:53:02Z) - Understanding Inverse Reinforcement Learning under Overparameterization: Non-Asymptotic Analysis and Global Optimality [52.906438147288256]
我々のアルゴリズムは,特定のニューラルネットワーク構造の下で,最適報酬とポリシーを識別できることが示される。
これは、国際的最適性を確実に達成する非漸近収束保証を持つ最初のIRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-03-22T21:16:08Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Nonlinear functional regression by functional deep neural network with kernel embedding [18.927592350748682]
本稿では,適応型・離散化不変次元減少法による機能的ディープニューラルネットワークを提案する。
様々な入力関数空間にまたがる非線形滑らかな関数の近似の比例率を導出する。
シミュレーションと実データの両方で数値実験を行い、機能ネットの有効性と利点を実証する。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Benefits of Overparameterized Convolutional Residual Networks: Function
Approximation under Smoothness Constraint [48.25573695787407]
大規模なConvResNetは関数の値から目的関数を近似できるだけでなく、一階スムーズ性も十分に発揮できることを示す。
我々の理論は、実際にディープ・ワイド・ネットワークを使うことの利点を部分的に正当化している。
論文 参考訳(メタデータ) (2022-06-09T15:35:22Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Theory of Deep Convolutional Neural Networks III: Approximating Radial
Functions [7.943024117353317]
我々は、2つの畳み込み層、ダウン演算子、完全に接続された層からなるディープニューラルネットワークのファミリーを考える。
ネットワーク構造は、畳み込み層の数と完全に連結された層の幅を決定する2つの構造パラメータに依存する。
論文 参考訳(メタデータ) (2021-07-02T08:22:12Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。