論文の概要: Pooling Methods in Deep Neural Networks, a Review
- arxiv url: http://arxiv.org/abs/2009.07485v1
- Date: Wed, 16 Sep 2020 06:11:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:29:00.321759
- Title: Pooling Methods in Deep Neural Networks, a Review
- Title(参考訳): ディープニューラルネットワークにおけるポーリング手法の概観
- Authors: Hossein Gholamalinezhad and Hossein Khosravi
- Abstract要約: プーリングレイヤは、前のレイヤから来るフィーチャーマップのダウンサンプリングを実行する重要なレイヤである。
本稿では,有名な,有用なプーリング手法について概説する。
- 参考スコア(独自算出の注目度): 6.1678491628787455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, Deep Neural Networks are among the main tools used in various
sciences. Convolutional Neural Network is a special type of DNN consisting of
several convolution layers, each followed by an activation function and a
pooling layer. The pooling layer is an important layer that executes the
down-sampling on the feature maps coming from the previous layer and produces
new feature maps with a condensed resolution. This layer drastically reduces
the spatial dimension of input. It serves two main purposes. The first is to
reduce the number of parameters or weights, thus lessening the computational
cost. The second is to control the overfitting of the network. An ideal pooling
method is expected to extract only useful information and discard irrelevant
details. There are a lot of methods for the implementation of pooling operation
in Deep Neural Networks. In this paper, we reviewed some of the famous and
useful pooling methods.
- Abstract(参考訳): 現在、ディープニューラルネットワークは様々な科学で使われている主要なツールの1つである。
畳み込みニューラルネットワーク(英: Convolutional Neural Network)は、複数の畳み込み層からなる特殊なタイプのDNNであり、それぞれにアクティベーション機能とプール層がある。
プーリング層は重要なレイヤであり、前のレイヤからのフィーチャーマップのダウンサンプリングを実行し、凝縮された解像度で新機能マップを生成する。
この層は入力の空間次元を大幅に減少させる。
主な目的は2つある。
1つ目はパラメータや重みの数を減らし、計算コストを下げることである。
2つ目はネットワークのオーバーフィットを制御することです。
理想的なプーリング法は有用な情報のみを抽出し、無関係な詳細を破棄することが期待される。
ディープニューラルネットワークにおけるプーリング操作の実装には、多くの方法がある。
本稿では,有名なプールプーリング手法のいくつかについて概説する。
関連論文リスト
- Half-Space Feature Learning in Neural Networks [2.3249139042158853]
現在、ニューラルネットワークの特徴学習には2つの極端な視点がある。
どちらの解釈も、新しい観点からは正しいとは考えにくい。
私たちはこの代替解釈を使って、Deep Linearly Gated Network (DLGN)と呼ばれるモデルを動かす。
論文 参考訳(メタデータ) (2024-04-05T12:03:19Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Increasing Depth of Neural Networks for Life-long Learning [2.0305676256390934]
本稿では,ニューラルネットワークの深度増加に基づく連続学習手法を提案する。
この研究は、ニューラルネットワークの深さを延ばすことが、生涯にわたる学習環境で有益かどうかを探求する。
論文 参考訳(メタデータ) (2022-02-22T11:21:41Z) - Identifying Class Specific Filters with L1 Norm Frequency Histograms in
Deep CNNs [1.1278903078792917]
我々はDeep Convolutional Networksの最終層と最後層を分析した。
クラスに対するネットワークの決定に最も寄与する機能のサブセットを特定します。
論文 参考訳(メタデータ) (2021-12-14T19:40:55Z) - Dilated Fully Convolutional Neural Network for Depth Estimation from a
Single Image [1.0131895986034314]
従来のCNNの欠点に対処するために,高度な拡張完全畳み込みニューラルネットワークを提案する。
拡張畳み込みにおける受容野の指数拡大の利点を利用して、我々のモデルは分解能の損失を最小限に抑えることができる。
本研究では,nyu深部v2データセットを用いて,従来のcnns手法よりも奥行き予測が基礎的真理にかなり近いことを示す。
論文 参考訳(メタデータ) (2021-03-12T23:19:32Z) - Refining activation downsampling with SoftPool [74.1840492087968]
畳み込みニューラルネットワーク(cnns)は、アクティベーションマップのサイズを減らすためにプールを使用する。
指数重化アクティベーションダウンサンプリングの高速かつ効率的な方法であるSoftPoolを提案します。
SoftPoolは、アクティベーションマップの縮小でより多くの情報を保持できることを示します。
論文 参考訳(メタデータ) (2021-01-02T12:09:49Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Monocular Depth Estimation Using Multi Scale Neural Network And Feature
Fusion [0.0]
ネットワークは2つの異なるブロックを使用し、まず、各特徴マップの畳み込みとマージに異なるフィルタサイズを使用する。
第2ブロックは、完全に連結された層の代わりに拡張畳み込みを使用し、計算を減らし、受容場を増大させる。
我々は、RMSE損失とSILog損失からなる深さ推定のための標準評価指標を用いて、Make 3Dデータセット、NYU Depth V2データセット、Kittiデータセットでネットワークをトレーニングし、テストする。
論文 参考訳(メタデータ) (2020-09-11T18:08:52Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。