論文の概要: Optimal approximation using complex-valued neural networks
- arxiv url: http://arxiv.org/abs/2303.16813v2
- Date: Mon, 30 Oct 2023 10:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 03:31:42.681179
- Title: Optimal approximation using complex-valued neural networks
- Title(参考訳): 複素値ニューラルネットワークを用いた最適近似
- Authors: Paul Geuchen, Felix Voigtlaender
- Abstract要約: 複雑評価ニューラルネットワーク(CVNN)は最近、有望な経験的成功を示している。
CVNNの表現性を近似特性を用いて解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex-valued neural networks (CVNNs) have recently shown promising
empirical success, for instance for increasing the stability of recurrent
neural networks and for improving the performance in tasks with complex-valued
inputs, such as in MRI fingerprinting. While the overwhelming success of Deep
Learning in the real-valued case is supported by a growing mathematical
foundation, such a foundation is still largely lacking in the complex-valued
case. We thus analyze the expressivity of CVNNs by studying their approximation
properties. Our results yield the first quantitative approximation bounds for
CVNNs that apply to a wide class of activation functions including the popular
modReLU and complex cardioid activation functions. Precisely, our results apply
to any activation function that is smooth but not polyharmonic on some
non-empty open set; this is the natural generalization of the class of smooth
and non-polynomial activation functions to the complex setting. Our main result
shows that the error for the approximation of $C^k$-functions scales as
$m^{-k/(2n)}$ for $m \to \infty$ where $m$ is the number of neurons, $k$ the
smoothness of the target function and $n$ is the (complex) input dimension.
Under a natural continuity assumption, we show that this rate is optimal; we
further discuss the optimality when dropping this assumption. Moreover, we
prove that the problem of approximating $C^k$-functions using continuous
approximation methods unavoidably suffers from the curse of dimensionality.
- Abstract(参考訳): 複雑評価ニューラルネットワーク(CVNN)は先日、リカレントニューラルネットワークの安定性の向上や、MRIフィンガープリントなどの複雑な値入力を伴うタスクのパフォーマンス向上など、有望な実証的な成功を示している。
真に評価されたケースにおけるDeep Learningの圧倒的な成功は、成長する数学的基盤によって支えられているが、そのような基礎は、複雑な評価されたケースにおいて依然としてほとんど欠落している。
そこで, cvnnの近似特性を解析し, 表現率を解析した。
以上の結果から,人気のあるmodreluおよび複合型心筋活性化機能を含む幅広い活性化機能に適用できるcvnnの定量的近似限界が得られた。
正確には、この結果は、ある空でない開集合上の多ハーモニックでない滑らかな任意の活性化関数に適用できる;これは複素集合への滑らかで非多項の活性化関数のクラスの自然な一般化である。
我々の主な結果は、$C^k$-函数の近似誤差が$m^{-k/(2n)}$ for $m \to \infty$ ここで、$m$はニューロンの数、$k$は対象関数の滑らかさ、$n$は(複雑な)入力次元であることを示している。
自然連続性仮定では、この速度が最適であることを示し、この仮定を捨てる際の最適性をさらに議論する。
さらに,連続近似法を用いて$c^k$-関数を近似する問題は必然的に次元の呪いに苦しむことを証明した。
関連論文リスト
- Optimal Neural Network Approximation for High-Dimensional Continuous Functions [5.748690310135373]
我々は、その近似において任意の精度を達成するために、少なくとも幅$d$、従って少なくとも$d$固有のニューロンを必要とする連続関数の族を示す。
これは、$mathcalO(d)$内在ニューロンの要求が、入力次元$d$と線形に成長するという意味で最適であることを示している。
論文 参考訳(メタデータ) (2024-09-04T01:18:55Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Approximation of Nonlinear Functionals Using Deep ReLU Networks [7.876115370275732]
本稿では,ReLU(rerectified linear unit)アクティベーション関数に関連する機能深部ニューラルネットワークの近似能力について検討する。
さらに,弱規則性条件下での関数型深部ReLUネットワークの近似率を確立する。
論文 参考訳(メタデータ) (2023-04-10T08:10:11Z) - Neural Network Approximation of Continuous Functions in High Dimensions
with Applications to Inverse Problems [6.84380898679299]
現在の理論では、ネットワークは問題の次元で指数関数的にスケールすべきだと予測されている。
ニューラルネットワークがH"より古い(あるいは一様)連続関数を近似するのに要する複雑性を境界付ける一般的な方法を提案する。
論文 参考訳(メタデータ) (2022-08-28T22:44:07Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Interval Universal Approximation for Neural Networks [47.767793120249095]
区間普遍近似(IUA)定理を導入する。
IUAは、ニューラルネットワークが何十年にもわたって知られているような、あらゆる連続関数の$f$を近似できることを示している。
本稿では,精度の高い区間解析が可能なニューラルネットワークを構築する際の計算複雑性について検討する。
論文 参考訳(メタデータ) (2020-07-12T20:43:56Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。