論文の概要: Deep neural network approximation of composite functions without the
curse of dimensionality
- arxiv url: http://arxiv.org/abs/2304.05790v1
- Date: Wed, 12 Apr 2023 12:08:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:22:30.828490
- Title: Deep neural network approximation of composite functions without the
curse of dimensionality
- Title(参考訳): 次元の呪いを伴わない複合関数のディープニューラルネットワーク近似
- Authors: Adrian Riekert
- Abstract要約: 本稿では,ディープニューラルネットワーク(DNN)により近似できる高次元連続関数のクラスを同定する。
クラス内の函数は、積、極大、ある平行化されたリプシッツ連続函数を含む潜在的に非有界な特殊函数として表すことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article we identify a general class of high-dimensional continuous
functions that can be approximated by deep neural networks (DNNs) with the
rectified linear unit (ReLU) activation without the curse of dimensionality. In
other words, the number of DNN parameters grows at most polynomially in the
input dimension and the approximation error. The functions in our class can be
expressed as a potentially unbounded number of compositions of special
functions which include products, maxima, and certain parallelized Lipschitz
continuous functions.
- Abstract(参考訳): 本稿では,直交線形単位(ReLU)の活性化を伴うディープニューラルネットワーク(DNN)によって近似できる高次元連続関数の一般クラスを次元性の呪いなしに同定する。
言い換えれば、DNNパラメータの数は、入力次元と近似誤差において最も多項式的に増加する。
このクラス内の関数は、積、最大値、ある種の平行化リプシッツ連続関数を含む特殊関数の合成の潜在的非有界数として表現することができる。
関連論文リスト
- Universal approximation results for neural networks with non-polynomial activation function over non-compact domains [3.3379026542599934]
ユークリッド空間の非コンパクト部分集合上の関数空間内のニューラルネットワークに対する普遍近似結果を導出する。
非ポリノミカルアクティベーション関数を持つニューラルネットワークにより、十分に正規かつ可積分なフーリエ変換を持つ関数を近似するための次元非依存の速度を提供する。
論文 参考訳(メタデータ) (2024-10-18T09:53:20Z) - Approximation of Nonlinear Functionals Using Deep ReLU Networks [7.876115370275732]
本稿では,ReLU(rerectified linear unit)アクティベーション関数に関連する機能深部ニューラルネットワークの近似能力について検討する。
さらに,弱規則性条件下での関数型深部ReLUネットワークの近似率を確立する。
論文 参考訳(メタデータ) (2023-04-10T08:10:11Z) - Neural Set Function Extensions: Learning with Discrete Functions in High
Dimensions [63.21838830509772]
集合関数を低次元連続領域に拡張するためのフレームワークを開発する。
我々のフレームワークは、よく知られた拡張を特殊ケースとして仮定する。
我々は低次元ニューラルネットワークボトルネックを高次元空間における表現に変換する。
論文 参考訳(メタデータ) (2022-08-08T10:58:02Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Neural Network Approximation of Refinable Functions [8.323468006516018]
本研究では, 深部ReLUネットワークの出力幅が一定であり, 精度指数で深部を増大させることにより, 精錬可能関数が近似可能であることを示す。
本研究は,ウェーブレットの標準構成に使用される関数と,コンピュータ支援幾何設計における部分分割アルゴリズムを用いて構築される関数に適用する。
論文 参考訳(メタデータ) (2021-07-28T06:45:36Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - The Representation Power of Neural Networks: Breaking the Curse of
Dimensionality [0.0]
浅層および深層ニューラルネットワークの量に対する上限を証明します。
我々はさらに、これらの境界がコロボフ函数を近似するために必要となる連続関数近似器の最小パラメータ数にほぼ一致することを証明した。
論文 参考訳(メタデータ) (2020-12-10T04:44:07Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - On Sharpness of Error Bounds for Multivariate Neural Network
Approximation [0.0]
この論文は、このようなリッジ関数の和による最良の非線形近似を扱う。
誤差境界は滑らかさのモジュライで表される。
論文 参考訳(メタデータ) (2020-04-05T14:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。