論文の概要: Regularized Pooling
- arxiv url: http://arxiv.org/abs/2005.03709v2
- Date: Thu, 6 Aug 2020 07:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:05:25.861146
- Title: Regularized Pooling
- Title(参考訳): 正規化プール
- Authors: Takato Otsuzuki, Hideaki Hayashi, Yuchen Zheng and Seiichi Uchida
- Abstract要約: 畳み込みニューラルネットワーク(CNN)では、スプーリング操作は次元減少や変形補償といった重要な役割を果たす。
本稿では,隣接するカーネル間で空間的にスムーズなスムーズなプール操作を行うために,正規化プーリングを提案する。
- 参考スコア(独自算出の注目度): 12.387676601792899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In convolutional neural networks (CNNs), pooling operations play important
roles such as dimensionality reduction and deformation compensation. In
general, max pooling, which is the most widely used operation for local
pooling, is performed independently for each kernel. However, the deformation
may be spatially smooth over the neighboring kernels. This means that max
pooling is too flexible to compensate for actual deformations. In other words,
its excessive flexibility risks canceling the essential spatial differences
between classes. In this paper, we propose regularized pooling, which enables
the value selection direction in the pooling operation to be spatially smooth
across adjacent kernels so as to compensate only for actual deformations. The
results of experiments on handwritten character images and texture images
showed that regularized pooling not only improves recognition accuracy but also
accelerates the convergence of learning compared with conventional pooling
operations.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)では、プール操作は次元減少や変形補償といった重要な役割を果たす。
一般に、ローカルプーリングにおいて最も広く使用される最大プーリングは、各カーネルに対して独立して実行される。
しかし、変形は隣接するカーネル上で空間的に滑らかである。
これは、最大プーリングが実際の変形を補うには柔軟すぎることを意味する。
言い換えれば、その過度な柔軟性は、クラス間の必須空間差をキャンセルするリスクを負う。
本稿では,プール操作における値選択方向を,隣接するカーネル間で空間的に平滑にすることで,実際の変形のみを補償できる正規化プーリングを提案する。
手書き文字画像とテクスチャ画像を用いた実験の結果,正規化プーリングは認識精度を向上させるだけでなく,従来のプーリング操作に比べて学習の収束を促進できることがわかった。
関連論文リスト
- MorphPool: Efficient Non-linear Pooling & Unpooling in CNNs [9.656707333320037]
ポーリングは本質的には数学的形態学の分野からの操作であり、極大プールは限定的な特殊なケースである。
プール操作に加えて、ピクセルレベルの予測に使用されるエンコーダデコーダネットワークもアンプールを必要とする。
2つのタスクと3つの大規模データセットの大規模な実験により、モルフォロジープーリングとアンプールがパラメータ数を大幅に削減して予測性能を向上させることが示されている。
論文 参考訳(メタデータ) (2022-11-25T11:25:20Z) - Hierarchical Spherical CNNs with Lifting-based Adaptive Wavelets for
Pooling and Unpooling [101.72318949104627]
本稿では, 階層型畳み込みニューラルネットワーク(HS-CNN)の新たな枠組みを提案し, プールやアンプールのための適応球面ウェーブレットを学習する。
LiftHS-CNNは、画像レベルのタスクとピクセルレベルのタスクの両方において、より効率的な階層的特徴学習を実現する。
論文 参考訳(メタデータ) (2022-05-31T07:23:42Z) - Pooling Revisited: Your Receptive Field is Suboptimal [35.11562214480459]
受信フィールドのサイズと形状は、ネットワークがどのようにローカル情報を集約するかを決定する。
我々はDynOPoolと呼ばれるシンプルだが効果的な動的最適化プール操作を提案する。
実験の結果,学習可能なリサイズモジュールを備えたモデルは,画像分類やセマンティックセグメンテーションにおいて,複数のデータセットのベースラインネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-30T17:03:40Z) - AdaPool: Exponential Adaptive Pooling for Information-Retaining
Downsampling [82.08631594071656]
畳み込み層は畳み込みニューラルネットワーク(CNN)の重要な構成要素である
適応的で指数関数的に重み付けされたアダプール法を提案する。
adaPoolは画像やビデオの分類やオブジェクト検出など,さまざまなタスクを通じて,ディテールの保存性の向上を実証する。
論文 参考訳(メタデータ) (2021-11-01T08:50:37Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Ordinal Pooling [26.873004843826962]
通常のプーリングは、シーケンス内のプール領域の要素を並べ替え、シーケンス内の順序に基づいて各要素に異なる重みを割り当てる。
実験により、ネットワークがプーリング層内で異なるタイプのプール操作を行うのが有利であることが示唆された。
論文 参考訳(メタデータ) (2021-09-03T14:33:02Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Refining activation downsampling with SoftPool [74.1840492087968]
畳み込みニューラルネットワーク(cnns)は、アクティベーションマップのサイズを減らすためにプールを使用する。
指数重化アクティベーションダウンサンプリングの高速かつ効率的な方法であるSoftPoolを提案します。
SoftPoolは、アクティベーションマップの縮小でより多くの情報を保持できることを示します。
論文 参考訳(メタデータ) (2021-01-02T12:09:49Z) - Receptive Field Size Optimization with Continuous Time Pooling [0.0]
我々は、理論上のプールを連続時間微分方程式で置き換える、最も一般的な手法である最大プーリングの修正版を提示する。
一般に適用されるネットワークアーキテクチャとデータセットを用いて,連続プーリングが精度および計算ニーズに与える影響を評価する。
論文 参考訳(メタデータ) (2020-11-02T10:21:51Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - Multi Layer Neural Networks as Replacement for Pooling Operations [13.481518628796692]
一方のパーセプトロンは,モデルの複雑さを増大させることなく,プール操作として有効に利用できることを示す。
テンソル畳み込みに対する我々のアプローチとストライドをプール操作として比較し、我々のアプローチが有効であり、複雑さを減少させることを示す。
論文 参考訳(メタデータ) (2020-06-12T07:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。