論文の概要: Theoretical Analysis of Inductive Biases in Deep Convolutional Networks
- arxiv url: http://arxiv.org/abs/2305.08404v1
- Date: Mon, 15 May 2023 07:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 15:40:38.507260
- Title: Theoretical Analysis of Inductive Biases in Deep Convolutional Networks
- Title(参考訳): 深層畳み込みネットワークにおけるインダクティブバイアスの理論解析
- Authors: Zihao Wang, Lei Wu
- Abstract要約: まず、CNNの普遍性、すなわち連続関数を近似する能力を解析する。
次に、重量共有と局所性の帰納バイアスを対称性のレンズを通して研究する。
LCNが$Omega(d)$サンプルを必要とするのに対して、CNNは$tildemathcalO(log2d)$サンプルしか必要としない。
- 参考スコア(独自算出の注目度): 10.115913222860186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the inductive biases in convolutional neural networks
(CNNs), which are believed to be vital drivers behind CNNs' exceptional
performance on vision-like tasks. We first analyze the universality of CNNs,
i.e., the ability to approximate continuous functions. We prove that a depth of
$\mathcal{O}(\log d)$ is sufficient for achieving universality, where $d$ is
the input dimension. This is a significant improvement over existing results
that required a depth of $\Omega(d)$. We also prove that learning sparse
functions with CNNs needs only $\tilde{\mathcal{O}}(\log^2d)$ samples,
indicating that deep CNNs can efficiently capture long-range sparse
correlations. Note that all these are achieved through a novel combination of
increased network depth and the utilization of multichanneling and
downsampling.
Lastly, we study the inductive biases of weight sharing and locality through
the lens of symmetry. To separate two biases, we introduce locally-connected
networks (LCNs), which can be viewed as CNNs without weight sharing.
Specifically, we compare the performance of CNNs, LCNs, and fully-connected
networks (FCNs) on a simple regression task. We prove that LCNs require
${\Omega}(d)$ samples while CNNs need only $\tilde{\mathcal{O}}(\log^2d)$
samples, which highlights the cruciality of weight sharing. We also prove that
FCNs require $\Omega(d^2)$ samples while LCNs need only
$\tilde{\mathcal{O}}(d)$ samples, demonstrating the importance of locality.
These provable separations quantify the difference between the two biases, and
our major observation behind is that weight sharing and locality break
different symmetries in the learning process.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(CNN)における帰納バイアスについて検討する。
まず、CNNの普遍性、すなわち連続関数を近似する能力を解析する。
我々は、$d$ が入力次元である普遍性を達成するには、$\mathcal{o}(\log d)$ の深さが十分であることを証明する。
これは、$\Omega(d)$の深さを必要とする既存の結果よりも大幅に改善されている。
また, CNNを用いたスパース関数の学習には$\tilde{\mathcal{O}}(\log^2d)$サンプルが必要であることも証明した。
これら全ては、ネットワーク深度の増加とマルチチャネル化とダウンサンプリングの利用による新しい組み合わせによって達成される。
最後に、重量共有と局所性の帰納バイアスを対称性のレンズを通して研究する。
2つのバイアスを分離するために、重量共有なしでCNNと見なせるローカル接続ネットワーク(LCN)を導入する。
具体的には,cnn,lcns,完全接続ネットワーク(fcns)の性能を簡単な回帰タスクで比較する。
LCNは${\Omega}(d)$サンプルを必要とするのに対し、CNNは$\tilde{\mathcal{O}}(\log^2d)$サンプルのみを必要とする。
また、FCNsが$\Omega(d^2)$サンプルを必要とするのに対し、LCNsは$\tilde{\mathcal{O}}(d)$サンプルしか必要とせず、局所性の重要性を示す。
これらの証明可能な分離は2つのバイアスの違いを定量化し、背後にある主要な観察は、重みの共有と局所性が学習プロセスの異なる対称性を損なうことである。
関連論文リスト
- Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - On the rates of convergence for learning with convolutional neural networks [9.772773527230134]
畳み込みニューラルネットワーク(CNN)の1側ゼロパディングと複数のチャネルによる近似と学習能力について検討した。
多くの学習問題におけるCNNに基づく推定器の収束率を導出する。
また、得られた分類率は、いくつかの一般的な設定において極小であることも示している。
論文 参考訳(メタデータ) (2024-03-25T06:42:02Z) - Role of Locality and Weight Sharing in Image-Based Tasks: A Sample Complexity Separation between CNNs, LCNs, and FCNs [42.551773746803946]
視覚タスクは局所性と翻訳不変性の特性によって特徴づけられる。
これらのタスクにおける畳み込みニューラルネットワーク(CNN)の優れた性能は、そのアーキテクチャに埋め込まれた局所性や重み付けの帰納的バイアスに起因する。
CNNにおけるこれらのバイアスの統計的利点を、局所連結ニューラルネットワーク(LCN)と完全連結ニューラルネットワーク(FCN)で定量化しようとする試みは、以下のカテゴリに分類される。
論文 参考訳(メタデータ) (2024-03-23T03:57:28Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - Distributed Sparse Feature Selection in Communication-Restricted
Networks [6.9257380648471765]
疎線形回帰と特徴選択のための新しい分散スキームを提案し,理論的に解析する。
データセット全体から因果次元を推定するために,ネットワーク内の情報共有をシンプルかつ効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T05:02:24Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Approximating smooth functions by deep neural networks with sigmoid
activation function [0.0]
我々は,シグモイド活性化機能を持つディープニューラルネットワーク(DNN)のパワーについて検討した。
固定深度と幅が$Md$で近似レートが$M-2p$であることを示す。
論文 参考訳(メタデータ) (2020-10-08T07:29:31Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。