論文の概要: Deep Convolutional Neural Networks with Zero-Padding: Feature Extraction
and Learning
- arxiv url: http://arxiv.org/abs/2307.16203v1
- Date: Sun, 30 Jul 2023 11:29:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:08:46.145633
- Title: Deep Convolutional Neural Networks with Zero-Padding: Feature Extraction
and Learning
- Title(参考訳): ゼロパディングを用いた深部畳み込みニューラルネットワーク:特徴抽出と学習
- Authors: Zhi Han, Baichen Liu, Shao-Bo Lin, Ding-Xuan Zhou
- Abstract要約: 特徴抽出において, ゼロパディングのDCNNはDFCNよりも本質的に優れていることを示す。
これらの理論結果は,玩具シミュレーションと実データ実行の両方を含む数値実験により検証された。
- 参考スコア(独自算出の注目度): 22.696129751033983
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper studies the performance of deep convolutional neural networks
(DCNNs) with zero-padding in feature extraction and learning. After verifying
the roles of zero-padding in enabling translation-equivalence, and pooling in
its translation-invariance driven nature, we show that with similar number of
free parameters, any deep fully connected networks (DFCNs) can be represented
by DCNNs with zero-padding. This demonstrates that DCNNs with zero-padding is
essentially better than DFCNs in feature extraction. Consequently, we derive
universal consistency of DCNNs with zero-padding and show its
translation-invariance in the learning process. All our theoretical results are
verified by numerical experiments including both toy simulations and real-data
running.
- Abstract(参考訳): 本稿では,特徴抽出と学習におけるゼロパディングを用いたディープ畳み込みニューラルネットワーク(DCNN)の性能について検討する。
翻訳等価性の実現におけるゼロパディングの役割の検証と、その翻訳不変性によるプール化の検証を経て、同じ数の自由パラメータで、ディープ完全連結ネットワーク(DFCN)はゼロパディングを持つDCNNで表現可能であることを示す。
これは,DCNNが特徴抽出においてDFCNよりも本質的に優れていることを示す。
その結果,DCNNとゼロパディングの共通一貫性を導出し,学習過程における翻訳不変性を示す。
我々の理論結果はおもちゃシミュレーションと実データ実行の両方を含む数値実験によって検証される。
関連論文リスト
- Use of Parallel Explanatory Models to Enhance Transparency of Neural Network Configurations for Cell Degradation Detection [18.214293024118145]
我々は,ニューラルネットワークの内部動作を照らし,理解するための並列モデルを構築している。
RNNの各層が入力分布を変換して検出精度を高める方法を示す。
同時に、精度の向上を制限するために作用する副作用も発見する。
論文 参考訳(メタデータ) (2024-04-17T12:22:54Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - Learning Ability of Interpolating Deep Convolutional Neural Networks [28.437011792990347]
我々は,深層ニューラルネットワーク,深層畳み込みニューラルネットワーク(DCNN)の重要なファミリーの学習能力について検討する。
非補間DCNNに適切に定義された層を追加することで、非補間DCNNの良好な学習率を維持する補間DCNNが得られることを示す。
我々の研究は、過度に適合したDCNNの一般化の理論的検証を提供する。
論文 参考訳(メタデータ) (2022-10-25T17:22:31Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - Universal Consistency of Deep Convolutional Neural Networks [30.276772452922742]
本稿では,拡張畳み込みを伴うDCNNにおける経験的リスク最小化の実装が,広範に一貫したものであることを実証する。
普遍的な一貫性によって動機づけられた我々は、完全な結合層がなければ、拡張畳み込みを伴うDCNNは、広く使われているディープニューラルネットワークよりも悪くないことを示す一連の実験を行った。
論文 参考訳(メタデータ) (2021-06-23T16:17:21Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。