論文の概要: Universal Property of Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2211.09983v1
- Date: Fri, 18 Nov 2022 02:04:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:24:44.692545
- Title: Universal Property of Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークの普遍的性質
- Authors: Geonho Hwang, Myungjoo Kang
- Abstract要約: 畳み込みニューラルネットワークは、入力値と出力値が同じ形状の連続関数を近似することができることを示す。
また、十分に深い層を持つ畳み込みニューラルネットワークは、チャネルの数に制限がある場合に普遍性を持つことを示す。
- 参考スコア(独自算出の注目度): 1.0467092641687232
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Universal approximation, whether a set of functions can approximate an
arbitrary function in a specific function space, has been actively studied in
recent years owing to the significant development of neural networks. However,
despite its extensive use, research on the universal properties of the
convolutional neural network has been limited due to its complex nature. In
this regard, we demonstrate the universal approximation theorem for
convolutional neural networks. A convolution with padding outputs the data of
the same shape as the input data; therefore, it is necessary to prove whether a
convolutional neural network composed of convolutions can approximate such a
function. We have shown that convolutional neural networks can approximate
continuous functions whose input and output values have the same shape. In
addition, the minimum depth of the neural network required for approximation
was presented, and we proved that it is the optimal value. We also verified
that convolutional neural networks with sufficiently deep layers have
universality when the number of channels is limited.
- Abstract(参考訳): 関数の集合が特定の関数空間で任意の関数を近似できるかどうかの普遍近似は、ニューラルネットワークの著しい発展のために近年活発に研究されている。
しかし、その広範な使用にもかかわらず、畳み込みニューラルネットワークの普遍的性質の研究はその複雑な性質のために制限されている。
本稿では,畳み込みニューラルネットワークに対する普遍近似定理を実証する。
パディングを伴う畳み込みは入力データと同じ形状のデータを出力するので、畳み込みからなる畳み込みニューラルネットワークがそのような関数を近似できるかどうかを証明する必要がある。
畳み込みニューラルネットワークは,入力値と出力値が同じ形状の連続関数を近似できることを示した。
さらに,近似に必要なニューラルネットワークの最小深さを示し,最適値であることが証明された。
また,チャネル数が制限された場合,十分に深い層を持つ畳み込みニューラルネットワークが普遍性を有することを検証した。
関連論文リスト
- Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Continuous approximation by convolutional neural networks with a
sigmoidal function [0.0]
我々は、非重複CNNと呼ばれる畳み込みニューラルネットワーク(CNN)のクラスを提示する。
このようなシグミカルアクティベーション関数を持つネットワークは任意の精度でコンパクトな入力集合上で定義された任意の連続関数を近似できることを示す。
論文 参考訳(メタデータ) (2022-09-27T12:31:36Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Optimal Learning Rates of Deep Convolutional Neural Networks: Additive
Ridge Functions [19.762318115851617]
深部畳み込みニューラルネットワークにおける平均2乗誤差解析について考察する。
付加的なリッジ関数に対しては、畳み込みニューラルネットワークとReLUアクティベーション関数を併用した1つの完全連結層が最適極小値に到達できることが示される。
論文 参考訳(メタデータ) (2022-02-24T14:22:32Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。