論文の概要: Approximation of Functionals by Neural Network without Curse of
Dimensionality
- arxiv url: http://arxiv.org/abs/2205.14421v1
- Date: Sat, 28 May 2022 13:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 18:41:15.818654
- Title: Approximation of Functionals by Neural Network without Curse of
Dimensionality
- Title(参考訳): 次元の呪いのないニューラルネットワークによる関数の近似
- Authors: Yahong Yang and Yang Xiang
- Abstract要約: 本稿では,関数を近似するニューラルネットワークを構築する。
近似の鍵となる考え方は、函数のバロン空間を定義することである。
- 参考スコア(独自算出の注目度): 12.717839871971517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we establish a neural network to approximate functionals,
which are maps from infinite dimensional spaces to finite dimensional spaces.
The approximation error of the neural network is $O(1/\sqrt{m})$ where $m$ is
the size of networks, which overcomes the curse of dimensionality. The key idea
of the approximation is to define a Barron space of functionals.
- Abstract(参考訳): 本稿では,無限次元空間から有限次元空間への写像である近似関数へのニューラルネットワークを確立する。
ニューラルネットワークの近似誤差は$o(1/\sqrt{m})$であり、ここで$m$はネットワークのサイズであり、次元の呪いを克服する。
近似の鍵となるアイデアは、函数のバロン空間を定義することである。
関連論文リスト
- Dimension-independent learning rates for high-dimensional classification
problems [53.622581586464634]
各RBV2$関数は、重みが有界なニューラルネットワークによって近似可能であることを示す。
次に、分類関数を近似した有界重みを持つニューラルネットワークの存在を証明する。
論文 参考訳(メタデータ) (2024-09-26T16:02:13Z) - Optimal Neural Network Approximation for High-Dimensional Continuous Functions [5.748690310135373]
我々は、その近似において任意の精度を達成するために、少なくとも幅$d$、従って少なくとも$d$固有のニューロンを必要とする連続関数の族を示す。
これは、$mathcalO(d)$内在ニューロンの要求が、入力次元$d$と線形に成長するという意味で最適であることを示している。
論文 参考訳(メタデータ) (2024-09-04T01:18:55Z) - Towards an Algebraic Framework For Approximating Functions Using Neural
Network Polynomials [0.589889361990138]
ニューラルネットワークオブジェクトのケースを作成し,すでに存在するニューラルネットワーク計算を拡張して,第2章で詳しく解説する。
私たちの目標は、確かに、ニューラルネットワーク、ニューラルネットワーク指数、シネ、コサインについて話すことは理にかなっており、特定のパラメータ、$q$、$varepsilon$の制限を受ける実数と実際に近似しているという意味では理にかなっていることです。
論文 参考訳(メタデータ) (2024-02-01T23:06:50Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Piecewise Linear Functions Representable with Infinite Width Shallow
ReLU Neural Networks [0.0]
我々は,このような無限幅のニューラルネットワークで表現可能なすべての連続的片方向線形関数が,有限幅の浅いReLUニューラルネットワークとして表現可能であることを,オンジーらの予想を証明した。
論文 参考訳(メタデータ) (2023-07-25T15:38:18Z) - Activation Functions Not To Active: A Plausible Theory on Interpreting
Neural Networks [0.0]
研究者は、ニューラルネットワークは高次元空間をモデル化するが、この空間を明確に定義することはできないと考えている。
我々は,ニューラルネットワークにおける活性化関数の役割の観点から,ニューラルネットワークの解釈に関する妥当な理論を開発する。
活性化関数は、低次元線型空間を無限次元空間に写像する拡大関数として機能することを示す。
論文 参考訳(メタデータ) (2023-05-01T05:23:58Z) - Deep neural network expressivity for optimal stopping problems [2.741266294612776]
最適な停止問題は、最大$varepsilon$の誤差を、最大$kappa dmathfrakq varepsilon-mathfrakr$の深いReLUニューラルネットワークによって近似することができる。
このことは、ディープニューラルネットワークが最適な停止問題を解決するために使用されるとき、次元性の呪いに悩まされないことを証明している。
論文 参考訳(メタデータ) (2022-10-19T10:22:35Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Size and Depth Separation in Approximating Natural Functions with Neural
Networks [52.73592689730044]
本稿では,ReLUネットワークを用いた自然関数の近似におけるサイズと深さの利点を示す。
我々は、そのような結果が$O(d)$を超えることを証明するための複雑性理論上の障壁を示す。
また、サイズ$O(d)$のネットワークで近似できる明示的な自然関数も示している。
論文 参考訳(メタデータ) (2021-01-30T21:30:11Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。