論文の概要: Learning Sparse Filters in Deep Convolutional Neural Networks with a
l1/l2 Pseudo-Norm
- arxiv url: http://arxiv.org/abs/2007.10022v1
- Date: Mon, 20 Jul 2020 11:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:39:44.437460
- Title: Learning Sparse Filters in Deep Convolutional Neural Networks with a
l1/l2 Pseudo-Norm
- Title(参考訳): l1/l2擬似ノルムを用いた深部畳み込みニューラルネットワークにおけるスパースフィルタの学習
- Authors: Anthony Berthelier, Yongzhe Yan, Thierry Chateau, Christophe Blanc,
Stefan Duffner, Christophe Garcia
- Abstract要約: ディープニューラルネットワーク(DNN)は、多くのタスクで効率的であることが証明されているが、高いメモリと計算コストが伴う。
近年の研究では、それらの構造は性能を損なうことなくよりコンパクトにすることができることが示されている。
フィルタ係数に定義された比 l1/l2 の擬ノルムに基づいて, 疎度誘導正規化項を提案する。
- 参考スコア(独自算出の注目度): 5.3791844634527495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks (DNNs) have proven to be efficient for numerous
tasks, they come at a high memory and computation cost, thus making them
impractical on resource-limited devices. However, these networks are known to
contain a large number of parameters. Recent research has shown that their
structure can be more compact without compromising their performance. In this
paper, we present a sparsity-inducing regularization term based on the ratio
l1/l2 pseudo-norm defined on the filter coefficients. By defining this
pseudo-norm appropriately for the different filter kernels, and removing
irrelevant filters, the number of kernels in each layer can be drastically
reduced leading to very compact Deep Convolutional Neural Networks (DCNN)
structures. Unlike numerous existing methods, our approach does not require an
iterative retraining process and, using this regularization term, directly
produces a sparse model during the training process. Furthermore, our approach
is also much easier and simpler to implement than existing methods.
Experimental results on MNIST and CIFAR-10 show that our approach significantly
reduces the number of filters of classical models such as LeNet and VGG while
reaching the same or even better accuracy than the baseline models. Moreover,
the trade-off between the sparsity and the accuracy is compared to other loss
regularization terms based on the l1 or l2 norm as well as the SSL, NISP and
GAL methods and shows that our approach is outperforming them.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くのタスクで効率的であることが証明されているが、メモリと計算コストが高いため、リソース制限されたデバイスでは実用的ではない。
しかし、これらのネットワークは多数のパラメータを含むことが知られている。
近年の研究では、その構造は性能を損なうことなくよりコンパクトであることが示されている。
本稿では,フィルタ係数で定義されるl1/l2擬似ノルム比に基づくスパーシティ誘導正規化項を提案する。
この擬似ノルムを異なるフィルタカーネルに適切に定義し、無関係なフィルタを除去することにより、各レイヤ内のカーネルの数を劇的に削減し、非常にコンパクトなディープ畳み込みニューラルネットワーク(DCNN)構造へと導くことができる。
既存の多くの手法とは異なり,本手法では反復的再訓練プロセスは必要とせず,この正規化項を用いて,トレーニングプロセス中にスパースモデルを直接生成する。
さらに、我々のアプローチは既存の方法よりもずっと簡単で、実装も簡単です。
MNIST と CIFAR-10 の実験結果から,本手法はベースラインモデルと同等あるいはそれ以上の精度で,LeNet や VGG などの古典モデルのフィルタ数を大幅に削減することを示した。
さらに、sparsity と精度とのトレードオフを l1 や l2 のノルムや ssl, nisp, gal の手法に基づく他の損失正規化項と比較し、我々のアプローチがそれらを上回っていることを示す。
関連論文リスト
- Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - The Power of Linear Combinations: Learning with Random Convolutions [2.0305676256390934]
現代のCNNは、ランダムな(空間的な)畳み込みフィルタを更新することなく、高いテスト精度を達成することができる。
これらのランダムフィルタの組み合わせは、結果の操作を暗黙的に正規化することができる。
私たちは3ドル3セントの畳み込みを学習することで比較的小さな利益しか得られないが、学習率はカーネルサイズに比例して増加する。
論文 参考訳(メタデータ) (2023-01-26T19:17:10Z) - Understanding the Covariance Structure of Convolutional Filters [86.0964031294896]
最近では、ConvMixerやConvNeXtのようなViTにインスパイアされた畳み込みネットワークは、注目すべき構造を持つ大カーネル深度畳み込みを使用している。
まず,このような学習フィルタの共分散行列が高度に構造化されていることを観測し,より大規模なネットワークを効果的に初期化するために,小さなネットワークから計算した共分散が用いられることを発見した。
論文 参考訳(メタデータ) (2022-10-07T15:59:13Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Holistic Filter Pruning for Efficient Deep Neural Networks [25.328005340524825]
HFP(Holistic Filter Pruning)は、実装が容易で正確なプルーニング率の特定が可能な、一般的なDNNトレーニングのための新しいアプローチである。
各種実験において,CIFAR-10 と ImageNet のトレーニングと最先端性能について考察した。
論文 参考訳(メタデータ) (2020-09-17T09:23:36Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - A Neural Network Approach for Online Nonlinear Neyman-Pearson
Classification [3.6144103736375857]
論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。
提案する分類器は、オンライン方式でバイナリラベル付きデータストリーム上で動作し、ユーザが指定し、制御可能な偽陽性率の検出能力を最大化する。
提案アルゴリズムは大規模データアプリケーションに適しており,実時間処理による偽陽性率制御性を実現している。
論文 参考訳(メタデータ) (2020-06-14T20:00:25Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - How Not to Give a FLOP: Combining Regularization and Pruning for
Efficient Inference [0.0]
本稿では,Deep Neural Networks(DNN)における計算複雑性の低減とより効率的な推論のための正規化とプルーニングの併用について検討する。
ネットワークプルーニングと協調して正規化を行うことにより、これらの組み合わせは2つのテクニックをそれぞれ個別に大幅に改善することを示す。
論文 参考訳(メタデータ) (2020-03-30T16:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。