論文の概要: Dynamic Group Convolution for Accelerating Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2007.04242v2
- Date: Fri, 10 Jul 2020 17:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:24:34.600734
- Title: Dynamic Group Convolution for Accelerating Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのための動的群畳み込み
- Authors: Zhuo Su, Linpu Fang, Wenxiong Kang, Dewen Hu, Matti Pietik\"ainen, Li
Liu
- Abstract要約: 本稿では,各グループ内で接続すべき入力チャネルのどの部分を適応的に選択する動的グループ畳み込み(DGC)を提案する。
複数のグループは、入力画像ごとに、豊富で相補的な視覚的/意味的特徴を適応的にキャプチャすることができる。
DGCは元のネットワーク構造を保持し、従来のグループ畳み込みと同様の計算効率を持つ。
- 参考スコア(独自算出の注目度): 23.644124360336754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Replacing normal convolutions with group convolutions can significantly
increase the computational efficiency of modern deep convolutional networks,
which has been widely adopted in compact network architecture designs. However,
existing group convolutions undermine the original network structures by
cutting off some connections permanently resulting in significant accuracy
degradation. In this paper, we propose dynamic group convolution (DGC) that
adaptively selects which part of input channels to be connected within each
group for individual samples on the fly. Specifically, we equip each group with
a small feature selector to automatically select the most important input
channels conditioned on the input images. Multiple groups can adaptively
capture abundant and complementary visual/semantic features for each input
image. The DGC preserves the original network structure and has similar
computational efficiency as the conventional group convolution simultaneously.
Extensive experiments on multiple image classification benchmarks including
CIFAR-10, CIFAR-100 and ImageNet demonstrate its superiority over the existing
group convolution techniques and dynamic execution methods. The code is
available at https://github.com/zhuogege1943/dgc.
- Abstract(参考訳): グループ畳み込みによる通常の畳み込みは、コンパクトなネットワークアーキテクチャ設計で広く採用されている現代の深層畳み込みネットワークの計算効率を大幅に向上させることができる。
しかし、既存のグループ畳み込みは、いくつかの接続を永久に切断することで、元のネットワーク構造を損なう。
本稿では,各グループ内の入力チャネルのどの部分をオンザフライで接続するかを適応的に選択する動的グループ畳み込み(dgc)を提案する。
具体的には、各グループに小さな特徴セレクタを装備し、入力画像に条件付けられた最も重要な入力チャネルを自動的に選択する。
複数のグループは、入力画像ごとに、豊富で相補的な視覚的特徴を適応的にキャプチャすることができる。
DGCは元のネットワーク構造を保持し、従来のグループ畳み込みと同様の計算効率を持つ。
CIFAR-10、CIFAR-100、ImageNetを含む複数の画像分類ベンチマークに対する大規模な実験は、既存のグループ畳み込み技術や動的実行方法よりも優れていることを示した。
コードはhttps://github.com/zhuogege1943/dgcで入手できる。
関連論文リスト
- PreCM: The Padding-based Rotation Equivariant Convolution Mode for Semantic Segmentation [10.74841255987162]
本稿では,パッド型回転同変畳み込みモード(PreCM)を数値的に構築する。
PreCMは、マルチスケールの画像や畳み込みカーネルだけでなく、複数の畳み込みを置き換えるための代替コンポーネントとしても使用できる。
実験により、PreCMベースのネットワークは、元のネットワークやデータ拡張ベースのネットワークよりもセグメンテーション性能が良いことを示した。
論文 参考訳(メタデータ) (2024-11-03T16:26:55Z) - Boosting Convolutional Neural Networks with Middle Spectrum Grouped
Convolution [15.421294642126073]
本稿では,高効率深部畳み込みニューラルネットワーク(DCNN)のための中間スペクトル群畳み込み(MSGC)と呼ばれる新しいモジュールを提案する。
チャネルプルーニングと従来のグループ化畳み込みの間の広い「中間スペクトル」領域を探索する。
MSGCは、チャネルプルーニングのコアである学習可能性の恩恵を受け、グループトポロジを構築することで、より良いチャネル分割を実現している。
論文 参考訳(メタデータ) (2023-04-13T07:31:41Z) - Dual Complementary Dynamic Convolution for Image Recognition [13.864357201410648]
畳み込みニューラルネットワーク(CNN)のための2分岐二重補完動的畳み込み演算子(DCDC)を提案する。
DCDCオペレータは、バニラ畳み込みと、空間適応的特徴のみをキャプチャする既存の動的畳み込みの制限を克服する。
実験により、DCDCオペレーターベースのResNets(DCDC-ResNets)は、画像分類におけるバニラResNetsや最先端の動的畳み込みネットワークよりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2022-11-11T12:32:12Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Optimising for Interpretability: Convolutional Dynamic Alignment
Networks [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
彼らの中核となるビルディングブロックは動的アライメントユニット(DAU)であり、タスク関連パターンに合わせて動的に計算された重みベクトルで入力を変換するように最適化されている。
CoDAネットは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-09-27T12:39:46Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Self-grouping Convolutional Neural Networks [30.732298624941738]
本稿では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
各フィルタについて、まず入力チャネルの重要度を評価し、重要度ベクトルを同定する。
得られたデータに依存したセントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化する。
論文 参考訳(メタデータ) (2020-09-29T06:24:32Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Dynamic Region-Aware Convolution [85.20099799084026]
本稿では,複数のフィルタを対応する空間領域に自動的に割り当てる動的領域認識畳み込み(DRConv)を提案する。
ImageNet分類において、DRConvベースのShuffleNetV2-0.5xは6.3%の相対的な改善と46M乗算加算レベルで67.1%の最先端性能を達成する。
論文 参考訳(メタデータ) (2020-03-27T05:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。