論文の概要: Universal Approximation Theorem for Neural Networks
- arxiv url: http://arxiv.org/abs/2102.10993v1
- Date: Fri, 19 Feb 2021 08:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:18:03.094079
- Title: Universal Approximation Theorem for Neural Networks
- Title(参考訳): ニューラルネットワークの普遍近似定理
- Authors: Takato Nishijima
- Abstract要約: ニューラルネットワークのUniversal Approximation Theorem for Neural Networks" では、ニューラルネットワークは適切な設定の下で特定の関数空間に密着していると述べている。
本稿では,フィードフォワードニューラルネットワークに対する普遍近似定理の包括的説明を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Is there any theoretical guarantee for the approximation ability of neural
networks? The answer to this question is the "Universal Approximation Theorem
for Neural Networks". This theorem states that a neural network is dense in a
certain function space under an appropriate setting. This paper is a
comprehensive explanation of the universal approximation theorem for
feedforward neural networks, its approximation rate problem (the relation
between the number of intermediate units and the approximation error), and
Barron space in Japanese.
- Abstract(参考訳): ニューラルネットワークの近似能力に関する理論的保証はありますか?
この質問に対する答えは、"Universal Approximation Theorem for Neural Networks"である。
この定理は、ニューラルネットワークが適切な設定の下である関数空間内で密度が高いことを述べる。
本稿では,フィードフォワードニューラルネットワークの普遍近似定理,その近似率問題(中間単位数と近似誤差の関係),および日本語におけるバロン空間を包括的に説明する。
関連論文リスト
- Universal approximation theorem for neural networks with inputs from a topological vector space [0.0]
位相ベクトル空間(TVS-FNN)からの入力を用いたフィードフォワードニューラルネットワークの研究
従来のフィードフォワードニューラルネットワークとは異なり、TVS-FNNはシーケンス、行列、関数などを含む幅広い入力を処理することができる。
論文 参考訳(メタデータ) (2024-09-19T17:10:14Z) - Universal Approximation Theorem for Vector- and Hypercomplex-Valued Neural Networks [0.3686808512438362]
普遍近似定理(英: universal approximation theorem)は、1つの隠れた層を持つニューラルネットワークがコンパクト集合上の連続関数を近似できるという定理である。
これは、実数値ニューラルネットワークと超複素数値ニューラルネットワークに有効である。
論文 参考訳(メタデータ) (2024-01-04T13:56:13Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Extending the Universal Approximation Theorem for a Broad Class of
Hypercomplex-Valued Neural Networks [1.0323063834827413]
普遍近似定理は、単一の隠れ層ニューラルネットワークがコンパクト集合上の任意の所望の精度で連続関数を近似すると主張する。
本稿では,超複素数値ニューラルネットワークの広範クラスに対する普遍近似定理を拡張した。
論文 参考訳(メタデータ) (2022-09-06T12:45:15Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - On the space of coefficients of a Feed Forward Neural Network [0.0]
ニューラルネットワークが一方向に線形に活性化されるような$mathcalN$を与えられた場合、等価な全てのニューラルネットワークを記述する係数の空間は半代数集合によって与えられる。
この結果は、与えられたピースワイド線型関数の異なる表現をタルスキ=セイデンベルグの定理を用いて研究することによって得られる。
論文 参考訳(メタデータ) (2021-09-07T22:47:50Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Interval Universal Approximation for Neural Networks [47.767793120249095]
区間普遍近似(IUA)定理を導入する。
IUAは、ニューラルネットワークが何十年にもわたって知られているような、あらゆる連続関数の$f$を近似できることを示している。
本稿では,精度の高い区間解析が可能なニューラルネットワークを構築する際の計算複雑性について検討する。
論文 参考訳(メタデータ) (2020-07-12T20:43:56Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。