論文の概要: On the Approximation and Complexity of Deep Neural Networks to Invariant
Functions
- arxiv url: http://arxiv.org/abs/2210.15279v1
- Date: Thu, 27 Oct 2022 09:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:00:00.359126
- Title: On the Approximation and Complexity of Deep Neural Networks to Invariant
Functions
- Title(参考訳): 深部ニューラルネットワークの不変関数への近似と複雑性について
- Authors: Gao Zhang, Jin-Hui Wu, Shao-Qun Zhang
- Abstract要約: 深部ニューラルネットワークの不変関数への近似と複雑性について検討する。
様々なタイプのニューラルネットワークモデルにより、幅広い不変関数を近似できることを示す。
我々は,高分解能信号のパラメータ推定と予測を理論的結論と結びつけることが可能なアプリケーションを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed a hot wave of deep neural networks in various
domains; however, it is not yet well understood theoretically. A theoretical
characterization of deep neural networks should point out their approximation
ability and complexity, i.e., showing which architecture and size are
sufficient to handle the concerned tasks. This work takes one step on this
direction by theoretically studying the approximation and complexity of deep
neural networks to invariant functions. We first prove that the invariant
functions can be universally approximated by deep neural networks. Then we show
that a broad range of invariant functions can be asymptotically approximated by
various types of neural network models that includes the complex-valued neural
networks, convolutional neural networks, and Bayesian neural networks using a
polynomial number of parameters or optimization iterations. We also provide a
feasible application that connects the parameter estimation and forecasting of
high-resolution signals with our theoretical conclusions. The empirical results
obtained on simulation experiments demonstrate the effectiveness of our method.
- Abstract(参考訳): 近年、様々な領域でディープニューラルネットワークのホットウェーブが観測されているが、理論的にはよく分かっていない。
ディープニューラルネットワークの理論的特徴付けは、その近似能力と複雑性、すなわち、関連するタスクを処理するのに十分なアーキテクチャとサイズを示すべきである。
この研究は、ディープニューラルネットワークの不変関数への近似と複雑性を理論的に研究することで、この方向への一歩を踏み出す。
まず、この不変関数がディープニューラルネットワークによって普遍的に近似できることを示す。
そこで, 複雑な評価ニューラルネットワーク, 畳み込みニューラルネットワーク, ベイズニューラルネットワークなどを含むニューラルネットワークモデルを用いて, パラメータの多項式数や最適化繰り返しを用いて, 幅広い不変関数を漸近的に近似できることを示す。
また,高分解能信号のパラメータ推定と予測を理論的結論と結びつけることが可能なアプリケーションを提案する。
シミュレーション実験により得られた実験結果は,本手法の有効性を示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Universal Approximation Theorem for Vector- and Hypercomplex-Valued Neural Networks [0.3686808512438362]
普遍近似定理(英: universal approximation theorem)は、1つの隠れた層を持つニューラルネットワークがコンパクト集合上の連続関数を近似できるという定理である。
これは、実数値ニューラルネットワークと超複素数値ニューラルネットワークに有効である。
論文 参考訳(メタデータ) (2024-01-04T13:56:13Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Towards Optimal Neural Networks: the Role of Sample Splitting in
Hyperparameter Selection [10.083181657981292]
我々はニューラルネットワークの有効性を理解するための新しい理論を構築した。
具体的には、ニューラルネットワークモデルの構築において、共通の実践の基礎となる理論的根拠について検討する。
論文 参考訳(メタデータ) (2023-07-15T06:46:40Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Optimal Learning Rates of Deep Convolutional Neural Networks: Additive
Ridge Functions [19.762318115851617]
深部畳み込みニューラルネットワークにおける平均2乗誤差解析について考察する。
付加的なリッジ関数に対しては、畳み込みニューラルネットワークとReLUアクティベーション関数を併用した1つの完全連結層が最適極小値に到達できることが示される。
論文 参考訳(メタデータ) (2022-02-24T14:22:32Z) - Fourier Neural Networks for Function Approximation [2.840363325289377]
ニューラルネットワークが普遍近似器であることは広く証明されている。
特に、狭いニューラルネットワークが、ディープニューラルネットワークによって実装されている関数を近似するために、ネットワークは指数関数的に多数のニューロンを取ることが証明されている。
論文 参考訳(メタデータ) (2021-10-21T09:30:26Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Conceptual capacity and effective complexity of neural networks [0.7734726150561086]
本稿では,異なる入力からの接空間の集合の多様性に基づくニューラルネットワークマッピング関数の複雑度測定法を提案する。
各接空間を線形pac概念として扱うために、ネットワークの概念的容量を推定するために、概念束のエントロピーに基づく測度を用いる。
論文 参考訳(メタデータ) (2021-03-13T04:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。