論文の概要: Weighted Sobolev Approximation Rates for Neural Networks on Unbounded Domains
- arxiv url: http://arxiv.org/abs/2411.04108v1
- Date: Wed, 06 Nov 2024 18:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:24:11.866256
- Title: Weighted Sobolev Approximation Rates for Neural Networks on Unbounded Domains
- Title(参考訳): 非有界領域におけるニューラルネットワークの重み付きソボレフ近似速度
- Authors: Ahmed Abdeljawad, Thomas Dittrich,
- Abstract要約: スペクトルバロン空間の関数に対する重み付きソボレフ空間における浅部ニューラルネットワークの近似能力を考察する。
まず、重み付きソボレフ空間におけるより一般的なフーリエ・ルベーグ空間に対する埋め込み結果を示し、次に、次元の呪いを伴わない浅層ニューラルネットワークに対する近似率を確立する。
- 参考スコア(独自算出の注目度): 1.4732811715354452
- License:
- Abstract: In this work, we consider the approximation capabilities of shallow neural networks in weighted Sobolev spaces for functions in the spectral Barron space. The existing literature already covers several cases, in which the spectral Barron space can be approximated well, i.e., without curse of dimensionality, by shallow networks and several different classes of activation function. The limitations of the existing results are mostly on the error measures that were considered, in which the results are restricted to Sobolev spaces over a bounded domain. We will here treat two cases that extend upon the existing results. Namely, we treat the case with bounded domain and Muckenhoupt weights and the case, where the domain is allowed to be unbounded and the weights are required to decay. We first present embedding results for the more general weighted Fourier-Lebesgue spaces in the weighted Sobolev spaces and then we establish asymptotic approximation rates for shallow neural networks that come without curse of dimensionality.
- Abstract(参考訳): 本研究では、スペクトルバロン空間の関数に対する重み付きソボレフ空間における浅部ニューラルネットワークの近似能力を考察する。
既存の文献はすでにいくつかのケースをカバーしており、スペクトルバロン空間は、例えば、次元性の呪いなしに、浅いネットワークといくつかの異なるアクティベーション関数によって、うまく近似することができる。
既存の結果の限界は、主に検討された誤差測度に基づいており、その結果は有界領域上のソボレフ空間に制限される。
ここでは、既存の結果にまたがる2つのケースを扱います。
すなわち、このケースを有界領域とムッケンフープ重みで扱い、また、領域が非有界であることが許され、重みが崩壊する必要がある場合を扱う。
まず、重み付きソボレフ空間におけるより一般的なフーリエ・ルベーグ空間の埋め込み結果を示し、次に、次元の呪いを伴わない浅層ニューラルネットワークの漸近近似値を確立する。
関連論文リスト
- Dimension-independent learning rates for high-dimensional classification
problems [53.622581586464634]
各RBV2$関数は、重みが有界なニューラルネットワークによって近似可能であることを示す。
次に、分類関数を近似した有界重みを持つニューラルネットワークの存在を証明する。
論文 参考訳(メタデータ) (2024-09-26T16:02:13Z) - Numerical Approximation Capacity of Neural Networks with Bounded Parameters: Do Limits Exist, and How Can They Be Measured? [4.878983382452911]
普遍近似は理論的には実現可能であるが,現実的な数値シナリオでは,Deep Neural Networks (DNN) は有限次元ベクトル空間でしか近似できない。
ネットワークの系列の近似能力限界を定量化するために、textit$epsilon$ outer measure と textitNumerical Span Dimension (NSdim) の概念を導入する。
論文 参考訳(メタデータ) (2024-09-25T07:43:48Z) - Space-Time Approximation with Shallow Neural Networks in Fourier
Lebesgue spaces [1.74048653626208]
ボヒナー・ソボレフ空間における異方性重み付きフーリエ・ルベーグ空間の包含について検討する。
異方性重み付きフーリエ・ルベーグ空間からの関数の近似率とボヒナー・ソボレフノルムのSNNによる近似の有界性を確立する。
論文 参考訳(メタデータ) (2023-12-13T19:02:27Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - Near-Minimax Optimal Estimation With Shallow ReLU Neural Networks [19.216784367141972]
本研究では,浅層(単層)ReLUニューラルネットワークを用いた雑音データから未知の関数を推定する問題について検討する。
我々は、データ生成関数がラドン領域における二階有界変動関数の空間に属するとき、これらのニューラルネットワーク推定器の性能を定量化する。
論文 参考訳(メタデータ) (2021-09-18T05:56:06Z) - Pure Exploration in Kernel and Neural Bandits [90.23165420559664]
我々は、特徴表現の次元が腕の数よりもはるかに大きい帯域における純粋な探索について研究する。
そこで本研究では,各アームの特徴表現を低次元空間に適応的に埋め込む手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T19:51:59Z) - Two-layer neural networks with values in a Banach space [1.90365714903665]
本研究では,領域と範囲がバラッハ空間である2層ニューラルネットワークについて検討する。
非線形性として、正の部分を取る格子演算を選択し、$mathbb Rd$-valued ニューラルネットワークの場合、これはReLU活性化関数に対応する。
論文 参考訳(メタデータ) (2021-05-05T14:54:24Z) - The role of boundary conditions in quantum computations of scattering
observables [58.720142291102135]
量子コンピューティングは、量子色力学のような強い相互作用する場の理論を物理的時間進化でシミュレートする機会を与えるかもしれない。
現在の計算と同様に、量子計算戦略は依然として有限のシステムサイズに制限を必要とする。
我々は、ミンコフスキー符号量1+1ドルの体積効果を定量化し、これらが体系的不確実性の重要な源であることを示す。
論文 参考訳(メタデータ) (2020-07-01T17:43:11Z) - Exact posterior distributions of wide Bayesian neural networks [51.20413322972014]
正確なBNN後方収束は、前者のGP限界によって誘導されるものと(弱く)収束することを示す。
実験的な検証のために、リジェクションサンプリングにより、小さなデータセット上で有限BNNから正確なサンプルを生成する方法を示す。
論文 参考訳(メタデータ) (2020-06-18T13:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。