論文の概要: Structured Convolutions for Efficient Neural Network Design
- arxiv url: http://arxiv.org/abs/2008.02454v2
- Date: Sat, 31 Oct 2020 04:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 06:29:04.273183
- Title: Structured Convolutions for Efficient Neural Network Design
- Title(参考訳): ニューラルネットワーク設計のための構造化畳み込み
- Authors: Yash Bhalgat, Yizhe Zhang, Jamie Lin, Fatih Porikli
- Abstract要約: 畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
- 参考スコア(独自算出の注目度): 65.36569572213027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we tackle model efficiency by exploiting redundancy in the
\textit{implicit structure} of the building blocks of convolutional neural
networks. We start our analysis by introducing a general definition of
Composite Kernel structures that enable the execution of convolution operations
in the form of efficient, scaled, sum-pooling components. As its special case,
we propose \textit{Structured Convolutions} and show that these allow
decomposition of the convolution operation into a sum-pooling operation
followed by a convolution with significantly lower complexity and fewer
weights. We show how this decomposition can be applied to 2D and 3D kernels as
well as the fully-connected layers. Furthermore, we present a Structural
Regularization loss that promotes neural network layers to leverage on this
desired structure in a way that, after training, they can be decomposed with
negligible performance loss. By applying our method to a wide range of CNN
architectures, we demonstrate "structured" versions of the ResNets that are up
to 2$\times$ smaller and a new Structured-MobileNetV2 that is more efficient
while staying within an accuracy loss of 1% on ImageNet and CIFAR-10 datasets.
We also show similar structured versions of EfficientNet on ImageNet and HRNet
architecture for semantic segmentation on the Cityscapes dataset. Our method
performs equally well or superior in terms of the complexity reduction in
comparison to the existing tensor decomposition and channel pruning methods.
- Abstract(参考訳): 本研究では,畳み込みニューラルネットワーク構築ブロックの‘textit{implicit structure’における冗長性を利用して,モデル効率に取り組む。
我々は,複合カーネル構造を汎用的に定義し,効率的な,スケールド,サムプールコンポーネントという形で畳み込み操作の実行を可能にする解析を開始する。
特別な場合として、textit{Structured Convolutions} を提案し、これらは畳み込み操作を和プーリング操作に分解し、さらに、より複雑で重量の少ない畳み込みが可能であることを示す。
この分解が2Dカーネルや3Dカーネルや全接続層にも適用可能であることを示す。
さらに、ニューラルネットワーク層が、トレーニング後に無視可能な性能損失で分解可能な方法で、この所望の構造を利用するように促進する構造規則化損失を示す。
この手法を幅広いCNNアーキテクチャに適用することにより、ImageNetとCIFAR-10データセットで1%の精度損失を被ったまま、より効率的な2$\times$のResNetの"構造化"バージョンと、新しいStructured-MobileNetV2を実証する。
また,imagenet と hrnet アーキテクチャ上で,cityscapes データセット上のセマンティクスセグメンテーションに類似した構造バージョンを示す。
提案手法は,既存のテンソル分解法やチャネルプルーニング法と比較して,複雑性の低減の観点からも等しく,あるいは優れている。
関連論文リスト
- A Generalization of Continuous Relaxation in Structured Pruning [0.3277163122167434]
トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いて, 構造化プルーニングを一般化する。
結果のCNNは計算コストのかかるスパース行列演算を使わずにGPUハードウェア上で効率的に実行される。
論文 参考訳(メタデータ) (2023-08-28T14:19:13Z) - DepGraph: Towards Any Structural Pruning [68.40343338847664]
我々は、CNN、RNN、GNN、Transformersのような任意のアーキテクチャの一般的な構造解析について研究する。
本稿では,階層間の依存関係を明示的にモデル化し,包括的にグループ化してプルーニングを行う汎用かつ完全自動な手法であるemphDependency Graph(DepGraph)を提案する。
本研究では,画像用ResNe(X)t,DenseNet,MobileNet,Vision Transformer,グラフ用GAT,3Dポイントクラウド用DGCNN,言語用LSTMなど,さまざまなアーキテクチャやタスクに関する手法を広範囲に評価し,言語用LSTMと並行して示す。
論文 参考訳(メタデータ) (2023-01-30T14:02:33Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Convolutional Neural Network Compression through Generalized Kronecker
Product Decomposition [2.4240083226965115]
我々は、クロネッカー積分解を一般化して層を圧縮し、多次元に応用し、一般化クロネッカー積分解(GKPD)へと導く。
当社のアプローチでは,任意の畳み込みレイヤのドロップイン代替として使用可能なプラグイン・アンド・プレイモジュールが生成される。
論文 参考訳(メタデータ) (2021-09-29T20:45:08Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Growing Efficient Deep Networks by Structured Continuous Sparsification [34.7523496790944]
私たちは、トレーニングの過程でディープネットワークアーキテクチャを成長させるアプローチを開発します。
我々の手法は、小さくてシンプルなシードアーキテクチャから始まり、動的に成長し、層とフィルタの両方を熟成することができる。
ImageNetのベースラインであるResNet-50と比較すると、推論FLOPは49.7%、トレーニングFLOPは47.4%である。
論文 参考訳(メタデータ) (2020-07-30T10:03:47Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Knapsack Pruning with Inner Distillation [11.04321604965426]
そこで本研究では,プルーンドネットワークの最終精度を最適化する新しいプルーニング手法を提案する。
ネットワークの高レベル構造を維持しながら、ネットワークチャネルを熟考する。
提案手法は,ResNetバックボーンを用いたImageNet,CIFAR-10,CIFAR-100における最先端のプルーニング結果をもたらす。
論文 参考訳(メタデータ) (2020-02-19T16:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。