論文の概要: Network compression and faster inference using spatial basis filters
- arxiv url: http://arxiv.org/abs/2110.12844v1
- Date: Mon, 25 Oct 2021 12:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 16:39:44.140883
- Title: Network compression and faster inference using spatial basis filters
- Title(参考訳): 空間基底フィルタを用いたネットワーク圧縮と高速推論
- Authors: Roy Miles and Krystian Mikolajczyk
- Abstract要約: 空間基底フィルタ(SBF)を用いた畳み込み層の効率的な代替手法を提案する。
SBF層は、深度にわたる畳み込みフィルタの冗長性を生かし、密度の高い対位部の最上位の精度を維持しながら、全体のモデル圧縮を実現する。
- 参考スコア(独自算出の注目度): 22.51901744279937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an efficient alternative to the convolutional layer through
utilising spatial basis filters (SBF). SBF layers exploit the spatial
redundancy in the convolutional filters across the depth to achieve overall
model compression, while maintaining the top-end accuracy of their dense
counter-parts. Training SBF-Nets is modelled as a simple pruning problem, but
instead of zeroing out the pruned channels, they are replaced with inexpensive
transformations from the set of non-pruned features. To enable an adoption of
these SBF layers, we provide a flexible training pipeline and an efficient
implementation in CUDA with low latency. To further demonstrate the effective
capacity of these models, we apply semi-supervised knowledge distillation that
leads to significant performance improvements over the baseline networks. Our
experiments show that SBF-Nets are effective and achieve comparable or improved
performance to state-of-the-art across CIFAR10, CIFAR100, Tiny-ImageNet, and
ILSCRC-2012.
- Abstract(参考訳): 本研究では,空間基底フィルタ(SBF)を用いた畳み込み層の効率的な代替手法を提案する。
SBF層は、深度にわたる畳み込みフィルタの空間的冗長性を利用して、密度の高いカウンター部分の最上端の精度を維持しながら、全体のモデル圧縮を実現する。
SBF-Netsのトレーニングは単純なプルーニング問題としてモデル化されるが、プルーニングチャネルをゼロにするのではなく、非プルーニング機能セットからの安価な変換に置き換えられる。
これらのSBFレイヤの採用を可能にするために、フレキシブルなトレーニングパイプラインと、レイテンシの低いCUDAでの効率的な実装を提供する。
これらのモデルの有効性をさらに実証するため, ベースラインネットワーク上での性能向上につながる半教師付き知識蒸留を適用した。
実験結果から,sbf-netはcifar10,cifar100,tiny-imagenet,ilscrc-2012において,最先端技術に匹敵する性能,あるいは向上することが示された。
関連論文リスト
- Adaptive Pruning of Pretrained Transformer via Differential Inclusions [48.47890215458465]
現在の圧縮アルゴリズムは一定の圧縮比でプルーーン変換器であり、各比に対して独自のプルーニングプロセスを必要とする。
本研究では,マスクパラメータの差分包摂性に基づいて,事前学習した変圧器を1つのプルーニング段階内において任意の所望の比率でプルーニングすることを提案する。
このダイナミクスは、ネットワーク構造を識別するサポートセットを持つマスクパラメータの全体正規化ソリューションパスを生成することができる。
論文 参考訳(メタデータ) (2025-01-06T06:34:52Z) - Filter Pruning via Filters Similarity in Consecutive Layers [20.29555787754269]
畳み込みニューラルネットワーク(CNN)の圧縮と高速化にフィルタプルーニングが広く採用されている
我々は,FSCL(Consecutive Layers)におけるフィルタ類似性を明示的に活用して,新しいプルーニング手法を直感的に提案する。
実験によりFSCLの有効性が示され, 精度, FLOP, パラメータ還元に対する最先端技術よりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2023-04-26T09:18:38Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - Boosting Pruned Networks with Linear Over-parameterization [8.796518772724955]
構造化プルーニングは、高速な推論のためのチャネル(フィルタ)を減らし、実行時にフットプリントを低くすることで、ニューラルネットワークを圧縮する。
プルーニング後の精度を回復するため、細調整は通常、プルーニングネットワークに適用される。
そこで我々は,まず,細調整パラメータの数を増やすために,刈り込みネットワーク内のコンパクト層を線形に過剰にパラメータ化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T05:30:26Z) - Adaptive Convolutions with Per-pixel Dynamic Filter Atom [24.691793951360914]
画素ごとの適応フィルタによるスケーラブルな動的畳み込みを導入する。
コンボリューション層へのプラグアンドプレイ置換として、ピクセル単位の動的原子による適応的畳み込みは、画像内分散の明示的なモデリングを可能にする。
本稿では,提案手法がタスク間で同等あるいはさらに優れたパフォーマンスを実現することを示す実験を行う。
論文 参考訳(メタデータ) (2021-08-17T22:04:10Z) - Feature Flow Regularization: Improving Structured Sparsity in Deep
Neural Networks [12.541769091896624]
プルーニングはディープニューラルネットワーク(DNN)の冗長パラメータを除去するモデル圧縮法である
特徴フロー正則化(FFR)と呼ばれる特徴の進化という新たな視点から, 単純かつ効果的な正則化戦略を提案する。
VGGNets、CIFAR-10/100上のResNets、Tiny ImageNetデータセットによる実験では、FFRが非構造化と構造化の両方の空間性を大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2021-06-05T15:00:50Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Decoupled Dynamic Filter Networks [85.38058820176047]
これらの欠点を同時に解決できるDDF(Decoupled Dynamic Filter)を提案します。
最近の注目の高まりに触発されて、DDFは深度ワイドなダイナミックフィルタを空間的およびチャネル的ダイナミックフィルタに分離する。
分類ネットワークにおける標準畳み込みをDFFに置き換える際の性能向上を観察する。
論文 参考訳(メタデータ) (2021-04-29T04:55:33Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。