論文の概要: DyNet: Dynamic Convolution for Accelerating Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2004.10694v1
- Date: Wed, 22 Apr 2020 16:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:28:43.769518
- Title: DyNet: Dynamic Convolution for Accelerating Convolutional Neural
Networks
- Title(参考訳): DyNet: 畳み込みニューラルネットワークの高速化のための動的畳み込み
- Authors: Yikang Zhang, Jian Zhang, Qiang Wang, Zhao Zhong
- Abstract要約: 本稿では,画像内容に基づいてコンボリューションカーネルを適応的に生成する動的畳み込み手法を提案する。
MobileNetV3-Small/Largeアーキテクチャに基づいて、DyNetはImageNet上で70.3/77.1%のTop-1精度を達成し、2.9/1.9%改善した。
- 参考スコア(独自算出の注目度): 16.169176006544436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolution operator is the core of convolutional neural networks (CNNs) and
occupies the most computation cost. To make CNNs more efficient, many methods
have been proposed to either design lightweight networks or compress models.
Although some efficient network structures have been proposed, such as
MobileNet or ShuffleNet, we find that there still exists redundant information
between convolution kernels. To address this issue, we propose a novel dynamic
convolution method to adaptively generate convolution kernels based on image
contents. To demonstrate the effectiveness, we apply dynamic convolution on
multiple state-of-the-art CNNs. On one hand, we can reduce the computation cost
remarkably while maintaining the performance. For
ShuffleNetV2/MobileNetV2/ResNet18/ResNet50, DyNet can reduce
37.0/54.7/67.2/71.3% FLOPs without loss of accuracy. On the other hand, the
performance can be largely boosted if the computation cost is maintained. Based
on the architecture MobileNetV3-Small/Large, DyNet achieves 70.3/77.1% Top-1
accuracy on ImageNet with an improvement of 2.9/1.9%. To verify the
scalability, we also apply DyNet on segmentation task, the results show that
DyNet can reduce 69.3% FLOPs while maintaining Mean IoU on segmentation task.
- Abstract(参考訳): 畳み込み演算子は畳み込みニューラルネットワーク(CNN)のコアであり、最も計算コストが高い。
CNNをより効率的にするために、軽量ネットワークや圧縮モデルの設計に多くの方法が提案されている。
mobilenetやshufflenetのような効率的なネットワーク構造が提案されているが、畳み込みカーネルの間にはまだ冗長な情報が存在する。
そこで本稿では,画像内容に基づく畳み込みカーネルを適応的に生成する動的畳み込み手法を提案する。
この効果を示すために,複数の最先端cnnに動的畳み込みを適用する。
一方、性能を維持しながら計算コストを大幅に削減できる。
ShuffleNetV2/MobileNetV2/ResNet18/ResNet50では、精度を失うことなく37.0/54.7/67.2/71.3%のFLOPを削減できる。
一方、計算コストが維持された場合、性能を大幅に向上させることができる。
MobileNetV3-Small/Largeアーキテクチャに基づいて、DyNetはImageNet上で70.3/77.1%のTop-1精度を達成し、2.9/1.9%改善した。
また,DyNetをセグメンテーションタスクに適用することにより,セグメンテーションタスクにおけるMean IoUを維持しながら69.3%のFLOPを削減できることを示す。
関連論文リスト
- KernelWarehouse: Rethinking the Design of Dynamic Convolution [16.101179962553385]
KernelWarehouseはカーネルの基本概念を再定義し、カーネルを組み立てる。
我々は、さまざまなConvNetアーキテクチャを用いて、ImageNetおよびMS-COCOデータセットにおけるKernelWarehouseの有効性を検証した。
論文 参考訳(メタデータ) (2024-06-12T05:16:26Z) - DSNet: A Novel Way to Use Atrous Convolutions in Semantic Segmentation [8.240211805240023]
我々は、現代の畳み込みニューラルネットワーク(CNN)におけるアトラス畳み込みの設計を再考する。
本稿では,モデルアーキテクチャの浅い層にアトラス畳み込みを組み込んだDual-Branch CNNアーキテクチャDSNetを提案する。
私たちのモデルは、ADE20K、Cityscapes、BDDデータセットの正確性とスピードの新たな最先端のトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-06-06T02:51:57Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - TripleNet: A Low Computing Power Platform of Low-Parameter Network [1.2542322096299672]
TripleNetは、HarDNetとThreshNetをベースにした改良された畳み込みニューラルネットワークである。
HarDNetと比較して、TripleNetのパラメータは66%削減され、精度は18%向上した。
論文 参考訳(メタデータ) (2022-04-02T21:55:00Z) - Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs [148.0476219278875]
現代畳み込みニューラルネットワーク(CNN)における大規模カーネル設計の再検討
本稿では、視覚変換器(ViT)の最近の進歩に触発されて、小さなカーネルのスタックではなく、少数の大きな畳み込みカーネルを使うことが、より強力なパラダイムであることを実証する。
本稿では,カーネルサイズが31x31の純粋なCNNアーキテクチャであるRepLKNetを提案する。
論文 参考訳(メタデータ) (2022-03-13T17:22:44Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - MicroNet: Improving Image Recognition with Extremely Low FLOPs [82.54764264255505]
疎結合性と動的アクティベーション関数の2つの要因が,精度向上に有効であることがわかった。
非線形性を改善するために動的シフトマックスと呼ばれる新しい動的アクティベーション関数を提案する。
私たちはMicroNetというネットワークのファミリに到達し、低FLOP体制下での最先端技術に対して大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2021-08-12T17:59:41Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Dynamically Throttleable Neural Networks (TNN) [24.052859278938858]
ディープニューラルネットワーク(DNN)の条件計算は、全体の計算負荷を削減し、ネットワークのサブセットを実行することでモデルの精度を向上させる。
我々は,自身のパフォーマンス目標と計算資源を適応的に自己制御できるランタイムスロットルブルニューラルネットワーク(TNN)を提案する。
論文 参考訳(メタデータ) (2020-11-01T20:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。