論文の概要: On the Dimension-Free Approximation of Deep Neural Networks for Symmetric Korobov Functions
- arxiv url: http://arxiv.org/abs/2511.12398v1
- Date: Sun, 16 Nov 2025 00:26:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.017738
- Title: On the Dimension-Free Approximation of Deep Neural Networks for Symmetric Korobov Functions
- Title(参考訳): 対称コロボフ関数に対するディープニューラルネットワークの次元自由近似について
- Authors: Yulong Lu, Tong Mao, Jinchao Xu, Yahong Yang,
- Abstract要約: 我々は、対称コロボフ関数に近似するディープニューラルネットワークを構築する。
これは、以前の近似よりも大幅に改善されている。
主要因が同様に次元の呪いを回避しているコロボフ関数を学習するための一般化エラー率を導出する。
- 参考スコア(独自算出の注目度): 14.455224726220708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been widely used as universal approximators for functions with inherent physical structures, including permutation symmetry. In this paper, we construct symmetric deep neural networks to approximate symmetric Korobov functions and prove that both the convergence rate and the constant prefactor scale at most polynomially with respect to the ambient dimension. This represents a substantial improvement over prior approximation guarantees that suffer from the curse of dimensionality. Building on these approximation bounds, we further derive a generalization-error rate for learning symmetric Korobov functions whose leading factors likewise avoid the curse of dimensionality.
- Abstract(参考訳): 深部ニューラルネットワークは、置換対称性を含む固有の物理的構造を持つ関数の普遍近似器として広く用いられている。
本稿では,対称なコロボフ関数を近似する対称ディープニューラルネットワークを構築し,周辺次元に関して,収束率と定数プレファクタスケールの両方を多項式的に証明する。
これは、次元の呪いに苦しむ事前近似の保証よりも大幅に改善されたことを意味する。
これらの近似境界に基づいて、主因子が次元性の呪いを同様に避ける対称コロボフ函数を学習するための一般化エラー率を導出する。
関連論文リスト
- Posterior Contraction for Sparse Neural Networks in Besov Spaces with Intrinsic Dimensionality [12.055886881947577]
この研究は、スパースベイズニューラルネットワークが異方性ベソフ空間とその階層的構成に対して最適な後部収縮率を達成することを証明している。
これらの先行は, 真の関数の滑らか度が未知であっても, 後部を最適速度で収縮させることにより, レート適応を可能にすることを示す。
論文 参考訳(メタデータ) (2025-06-23T21:29:40Z) - The Empirical Impact of Neural Parameter Symmetries, or Lack Thereof [50.49582712378289]
ニューラル・ネットワーク・アーキテクチャの導入により,ニューラル・パラメータ・対称性の影響について検討する。
我々は,パラメータ空間対称性を低減するために,標準的なニューラルネットワークを改良する2つの手法を開発した。
実験により,パラメータ対称性の経験的影響に関する興味深い観察がいくつか示された。
論文 参考訳(メタデータ) (2024-05-30T16:32:31Z) - Optimal Deep Neural Network Approximation for Korobov Functions with
respect to Sobolev Norms [8.249180979158819]
本稿では,コロボフ関数に適用した場合のディープニューラルネットワーク(DNN)の近似のほぼ最適値を確立する。
我々の達成した近似速度は、従来の手法と連続関数近似器よりも優れた「超収束」率を示す。
論文 参考訳(メタデータ) (2023-11-08T15:59:10Z) - Nonparametric Classification on Low Dimensional Manifolds using Overparameterized Convolutional Residual Networks [78.11734286268455]
非パラメトリック分類の観点から重量減衰を訓練したConvResNeXtsの性能について検討した。
我々の分析は、ConvResNeXtsにおいて無限に多くのビルディングブロックを許容し、重み減衰がこれらのブロックに空間性を暗黙的に強制することを示す。
論文 参考訳(メタデータ) (2023-07-04T11:08:03Z) - Optimal Approximation Complexity of High-Dimensional Functions with
Neural Networks [3.222802562733787]
本稿では、ReLUと$x2$の両方を活性化関数として使用するニューラルネットワークの特性について検討する。
いくつかの文脈において、低局所次元を利用して次元の呪いを克服し、未知の低次元部分空間に最適な近似値を得る方法を示す。
論文 参考訳(メタデータ) (2023-01-30T17:29:19Z) - The Representation Power of Neural Networks: Breaking the Curse of
Dimensionality [0.0]
浅層および深層ニューラルネットワークの量に対する上限を証明します。
我々はさらに、これらの境界がコロボフ函数を近似するために必要となる連続関数近似器の最小パラメータ数にほぼ一致することを証明した。
論文 参考訳(メタデータ) (2020-12-10T04:44:07Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。