論文の概要: Self-grouping Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2009.13803v1
- Date: Tue, 29 Sep 2020 06:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:44:33.948067
- Title: Self-grouping Convolutional Neural Networks
- Title(参考訳): 自己グループ型畳み込みニューラルネットワーク
- Authors: Qingbei Guo and Xiao-Jun Wu and Josef Kittler and Zhiquan Feng
- Abstract要約: 本稿では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
各フィルタについて、まず入力チャネルの重要度を評価し、重要度ベクトルを同定する。
得られたデータに依存したセントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化する。
- 参考スコア(独自算出の注目度): 30.732298624941738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although group convolution operators are increasingly used in deep
convolutional neural networks to improve the computational efficiency and to
reduce the number of parameters, most existing methods construct their group
convolution architectures by a predefined partitioning of the filters of each
convolutional layer into multiple regular filter groups with an equal spatial
group size and data-independence, which prevents a full exploitation of their
potential. To tackle this issue, we propose a novel method of designing
self-grouping convolutional neural networks, called SG-CNN, in which the
filters of each convolutional layer group themselves based on the similarity of
their importance vectors. Concretely, for each filter, we first evaluate the
importance value of their input channels to identify the importance vectors,
and then group these vectors by clustering. Using the resulting
\emph{data-dependent} centroids, we prune the less important connections, which
implicitly minimizes the accuracy loss of the pruning, thus yielding a set of
\emph{diverse} group convolution filters. Subsequently, we develop two
fine-tuning schemes, i.e. (1) both local and global fine-tuning and (2) global
only fine-tuning, which experimentally deliver comparable results, to recover
the recognition capacity of the pruned network. Comprehensive experiments
carried out on the CIFAR-10/100 and ImageNet datasets demonstrate that our
self-grouping convolution method adapts to various state-of-the-art CNN
architectures, such as ResNet and DenseNet, and delivers superior performance
in terms of compression ratio, speedup and recognition accuracy. We demonstrate
the ability of SG-CNN to generalise by transfer learning, including domain
adaption and object detection, showing competitive results. Our source code is
available at https://github.com/QingbeiGuo/SG-CNN.git.
- Abstract(参考訳): グループ畳み込み演算子は、計算効率の向上とパラメータ数の減少のために、深層畳み込みニューラルネットワークでますます使われているが、既存のほとんどの手法では、それぞれの畳み込み層のフィルタを、同じ空間的グループサイズとデータ独立性を持つ複数の正規フィルタグループに分割することで、グループ畳み込みアーキテクチャを構築する。
そこで本研究では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
具体的には,各フィルタに対して,まず入力チャネルの重要度を評価し,重要度ベクトルを識別し,クラスタリングによりこれらのベクトルをグループ化する。
得られた 'emph{data-dependent} セントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化し、一連の \emph{diverse} 群畳み込みフィルタを生成する。
次に,(1)局所的および大域的な微調整と(2)大域的のみの微調整の2つの微調整方式を開発し,比較結果を実験的に提供し,刈り取ったネットワークの認識能力を回復した。
CIFAR-10/100およびImageNetデータセットで実施された総合的な実験により、我々の自己グループ化畳み込み法がResNetやDenseNetといった最先端CNNアーキテクチャに適応し、圧縮比、スピードアップ、認識精度の点で優れた性能を提供することが示された。
本稿では,SG-CNNが,ドメイン適応やオブジェクト検出を含む伝達学習によって一般化する能力を示す。
ソースコードはhttps://github.com/QingbeiGuo/SG-CNN.gitで公開されています。
関連論文リスト
- Local Kernel Renormalization as a mechanism for feature learning in
overparametrized Convolutional Neural Networks [0.0]
実験的な証拠は、無限幅限界における完全連結ニューラルネットワークが最終的に有限幅限界よりも優れていることを示している。
畳み込み層を持つ最先端アーキテクチャは、有限幅構造において最適な性能を達成する。
有限幅FCネットワークの一般化性能は,ガウス事前選択に適した無限幅ネットワークで得られることを示す。
論文 参考訳(メタデータ) (2023-07-21T17:22:04Z) - Adaptive aggregation of Monte Carlo augmented decomposed filters for efficient group-equivariant convolutional neural network [0.36122488107441414]
グループ等価畳み込みニューラルネットワーク(G-CNN)は、CNNのデータ効率と性能を向上させるためにパラメータ共有に大きく依存している。
群同変ニューラルネットワークに対する非パラメータ共有手法を提案する。
提案手法は, 拡張フィルタの重み付け和により, 多様なフィルタを適応的に集約する。
論文 参考訳(メタデータ) (2023-05-17T10:18:02Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Learning Sparse Filters in Deep Convolutional Neural Networks with a
l1/l2 Pseudo-Norm [5.3791844634527495]
ディープニューラルネットワーク(DNN)は、多くのタスクで効率的であることが証明されているが、高いメモリと計算コストが伴う。
近年の研究では、それらの構造は性能を損なうことなくよりコンパクトにすることができることが示されている。
フィルタ係数に定義された比 l1/l2 の擬ノルムに基づいて, 疎度誘導正規化項を提案する。
論文 参考訳(メタデータ) (2020-07-20T11:56:12Z) - Dynamic Group Convolution for Accelerating Convolutional Neural Networks [23.644124360336754]
本稿では,各グループ内で接続すべき入力チャネルのどの部分を適応的に選択する動的グループ畳み込み(DGC)を提案する。
複数のグループは、入力画像ごとに、豊富で相補的な視覚的/意味的特徴を適応的にキャプチャすることができる。
DGCは元のネットワーク構造を保持し、従来のグループ畳み込みと同様の計算効率を持つ。
論文 参考訳(メタデータ) (2020-07-08T16:35:44Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Ensembled sparse-input hierarchical networks for high-dimensional
datasets [8.629912408966145]
サンプルサイズが小さい環境では,高密度ニューラルネットワークが実用的なデータ解析ツールであることを示す。
提案手法は,L1-ペナルティパラメータを2つだけ調整することで,ネットワーク構造を適切に調整する。
EASIER-netは、異なるサイズの実世界のデータセットのコレクションにおいて、データ適応方式でネットワークアーキテクチャを選択し、平均的なオフザシェルフ手法よりも高い予測精度を達成した。
論文 参考訳(メタデータ) (2020-05-11T02:08:53Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。