論文の概要: Learnable Discrete Wavelet Pooling (LDW-Pooling) For Convolutional
Networks
- arxiv url: http://arxiv.org/abs/2109.06638v1
- Date: Mon, 13 Sep 2021 08:02:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:44:54.896536
- Title: Learnable Discrete Wavelet Pooling (LDW-Pooling) For Convolutional
Networks
- Title(参考訳): 畳み込みネットワークのための学習可能な離散ウェーブレットプール(LDW-Pooling)
- Authors: Jun-Wei Hsieh, Ming-Ching Chang, Ping-Yang Chen, Bor-Shiun Wang,
Lipeng Ke, Siwei Lyu
- Abstract要約: 本稿では,標準的なプール操作を置き換えるために汎用的に適用可能なLDW-Pooling(Learning Discrete Wavelet Pooling)を提案する。
LDW-PoolingはWaveletPoolingやLiftPoolingといった他の最先端のプール技術と比較して効率的かつ効率的である。
- 参考スコア(独自算出の注目度): 33.45407848136399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pooling is a simple but essential layer in modern deep CNN architectures for
feature aggregation and extraction. Typical CNN design focuses on the conv
layers and activation functions, while leaving the pooling layers with fewer
options. We introduce the Learning Discrete Wavelet Pooling (LDW-Pooling) that
can be applied universally to replace standard pooling operations to better
extract features with improved accuracy and efficiency. Motivated from the
wavelet theory, we adopt the low-pass (L) and high-pass (H) filters
horizontally and vertically for pooling on a 2D feature map. Feature signals
are decomposed into four (LL, LH, HL, HH) subbands to retain features better
and avoid information dropping. The wavelet transform ensures features after
pooling can be fully preserved and recovered. We next adopt an energy-based
attention learning to fine-select crucial and representative features.
LDW-Pooling is effective and efficient when compared with other
state-of-the-art pooling techniques such as WaveletPooling and LiftPooling.
Extensive experimental validation shows that LDW-Pooling can be applied to a
wide range of standard CNN architectures and consistently outperform standard
(max, mean, mixed, and stochastic) pooling operations.
- Abstract(参考訳): ポーリングは、機能集約と抽出のためのモダンなディープCNNアーキテクチャにおいて、単純だが必須のレイヤーである。
典型的なcnn設計はconv層とアクティベーション関数に焦点を当て、プール層を少ない選択肢で残している。
学習離散ウェーブレットプーリング(LDW-Pooling)を導入し、標準的なプール操作を置き換え、精度と効率を向上した特徴抽出を行う。
ウェーブレット理論に動機づけられ, 2次元特徴マップ上でのプーリングに, ローパス (l) とハイパス (h) フィルタを水平および垂直に採用した。
特徴信号は4つのサブバンド(ll, lh, hl, hh)に分解され、機能を維持し、情報の落下を避ける。
ウェーブレット変換は、プール後の特徴を完全に保存し、回収することができる。
次に,重要な特徴と代表的特徴を細かく選択するために,エネルギーに基づく注意学習を採用する。
LDW-PoolingはWaveletPoolingやLiftPoolingといった他の最先端のプール技術と比較して効率的かつ効率的である。
広範囲な実験的検証により、ldwプールは幅広い標準cnnアーキテクチャに適用でき、一貫して標準(max、平均、混合、確率的)プール操作を上回ることが示されている。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - MorphPool: Efficient Non-linear Pooling & Unpooling in CNNs [9.656707333320037]
ポーリングは本質的には数学的形態学の分野からの操作であり、極大プールは限定的な特殊なケースである。
プール操作に加えて、ピクセルレベルの予測に使用されるエンコーダデコーダネットワークもアンプールを必要とする。
2つのタスクと3つの大規模データセットの大規模な実験により、モルフォロジープーリングとアンプールがパラメータ数を大幅に削減して予測性能を向上させることが示されている。
論文 参考訳(メタデータ) (2022-11-25T11:25:20Z) - Hierarchical Spherical CNNs with Lifting-based Adaptive Wavelets for
Pooling and Unpooling [101.72318949104627]
本稿では, 階層型畳み込みニューラルネットワーク(HS-CNN)の新たな枠組みを提案し, プールやアンプールのための適応球面ウェーブレットを学習する。
LiftHS-CNNは、画像レベルのタスクとピクセルレベルのタスクの両方において、より効率的な階層的特徴学習を実現する。
論文 参考訳(メタデータ) (2022-05-31T07:23:42Z) - Revisiting Pooling through the Lens of Optimal Transport [25.309212446782684]
最適な輸送のレンズを通した,新しい,ソリッドなアルゴリズムプーリングフレームワークを開発した。
UOT問題のパラメータを学習可能にし、それに基づいて、ニューラルネットワークのためのtextitUOT-Poolingと呼ばれる一般化されたプーリング層を提案する。
マルチインスタンスラーニング(MIL)とグラフ埋め込みという2つのアプリケーションシナリオで、UOT-Poolingレイヤをテストします。
論文 参考訳(メタデータ) (2022-01-23T06:20:39Z) - AdaPool: Exponential Adaptive Pooling for Information-Retaining
Downsampling [82.08631594071656]
畳み込み層は畳み込みニューラルネットワーク(CNN)の重要な構成要素である
適応的で指数関数的に重み付けされたアダプール法を提案する。
adaPoolは画像やビデオの分類やオブジェクト検出など,さまざまなタスクを通じて,ディテールの保存性の向上を実証する。
論文 参考訳(メタデータ) (2021-11-01T08:50:37Z) - Refining activation downsampling with SoftPool [74.1840492087968]
畳み込みニューラルネットワーク(cnns)は、アクティベーションマップのサイズを減らすためにプールを使用する。
指数重化アクティベーションダウンサンプリングの高速かつ効率的な方法であるSoftPoolを提案します。
SoftPoolは、アクティベーションマップの縮小でより多くの情報を保持できることを示します。
論文 参考訳(メタデータ) (2021-01-02T12:09:49Z) - Strip Pooling: Rethinking Spatial Pooling for Scene Parsing [161.7521770950933]
長いが狭いカーネル、すなわち1xNまたはNx1を考えるストリッププーリングを導入する。
提案するストリッププール性能と従来の空間プール技術との比較を行った。
両方の新しいプールベースのデザインは軽量であり、既存のシーン解析ネットワークにおいて効率的なプラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-03-30T10:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。