論文の概要: Sampling Complexity of Deep Approximation Spaces
- arxiv url: http://arxiv.org/abs/2312.13379v1
- Date: Wed, 20 Dec 2023 19:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 16:47:50.918141
- Title: Sampling Complexity of Deep Approximation Spaces
- Title(参考訳): 深部近似空間のサンプリング複雑性
- Authors: Ahmed Abdeljawad, Philipp Grohs
- Abstract要約: 任意の速度でReLU活性化関数を持つニューラルネットワークによって近似できる関数が存在することが示されている。
本研究は、ReQU活性化関数に類似した結果を示すことにより、これらの知見を拡張した。
- 参考スコア(独自算出の注目度): 5.946662332228774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While it is well-known that neural networks enjoy excellent approximation
capabilities, it remains a big challenge to compute such approximations from
point samples. Based on tools from Information-based complexity, recent work by
Grohs and Voigtlaender [Journal of the FoCM (2023)] developed a rigorous
framework for assessing this so-called "theory-to-practice gap". More
precisely, in that work it is shown that there exist functions that can be
approximated by neural networks with ReLU activation function at an arbitrary
rate while requiring an exponentially growing (in the input dimension) number
of samples for their numerical computation. The present study extends these
findings by showing analogous results for the ReQU activation function.
- Abstract(参考訳): ニューラルネットワークは優れた近似能力を持っていることはよく知られているが、ポイントサンプルからそのような近似を計算することは大きな課題である。
情報に基づく複雑さのツールに基づいて、grohsとvoigtlaenderの最近の研究(journal of the focm (2023))は、このいわゆる「理論と実践のギャップ」を評価するための厳格な枠組みを開発した。
より正確には、この研究において、ReLUアクティベーション関数を持つニューラルネットワークによって任意の速度で近似できる関数が存在することが示され、その数値計算には指数的に(入力次元において)サンプルの数を必要とする。
本研究は、ReQU活性化関数に類似した結果を示すことにより、これらの知見を拡張した。
関連論文リスト
- Spherical Analysis of Learning Nonlinear Functionals [10.785977740158193]
本稿では,球面上の関数の集合上で定義される関数について考察する。
深部ReLUニューラルネットワークの近似能力をエンコーダデコーダフレームワークを用いて検討した。
論文 参考訳(メタデータ) (2024-10-01T20:10:00Z) - Sample Complexity Bounds for Score-Matching: Causal Discovery and
Generative Modeling [82.36856860383291]
我々は,標準深部ReLUニューラルネットワークをトレーニングすることにより,スコア関数の正確な推定が可能であることを実証した。
スコアマッチングに基づく因果発見手法を用いて因果関係の回復の誤差率の限界を確立する。
論文 参考訳(メタデータ) (2023-10-27T13:09:56Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - Proof of the Theory-to-Practice Gap in Deep Learning via Sampling
Complexity bounds for Neural Network Approximation Spaces [5.863264019032882]
関数の近似化や積分に基づく(決定的あるいはランダム化)アルゴリズムの計算複雑性について検討する。
この分野における最も重要な問題の1つは、理論的に証明可能なニューラルネットワーク近似率を実現できるかどうかという問題である。
論文 参考訳(メタデータ) (2021-04-06T18:55:20Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Fast Reinforcement Learning with Incremental Gaussian Mixture Models [0.0]
Incrmental Gaussian Mixture Network (IGMN)と呼ばれる単一パスから学習可能なオンラインおよびインクリメンタルなアルゴリズムが、結合状態とQ値空間のためのサンプル効率関数近似器として採用された。
IGMN関数近似器の使用は、勾配降下法で訓練された従来のニューラルネットワークと比較して、強化学習に重要な利点をもたらすことが観察された。
論文 参考訳(メタデータ) (2020-11-02T03:18:15Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Deep Learning with Functional Inputs [0.0]
本稿では,機能データをフィードフォワードニューラルネットワークに統合する手法を提案する。
この手法の副産物は、最適化プロセス中に可視化できる動的な機能的重みの集合である。
このモデルは、新しいデータの予測や真の機能的重みの回復など、多くの文脈でうまく機能することが示されている。
論文 参考訳(メタデータ) (2020-06-17T01:23:00Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。