論文の概要: RepGhost: A Hardware-Efficient Ghost Module via Re-parameterization
- arxiv url: http://arxiv.org/abs/2211.06088v1
- Date: Fri, 11 Nov 2022 09:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:32:49.115753
- Title: RepGhost: A Hardware-Efficient Ghost Module via Re-parameterization
- Title(参考訳): repghost:再パラメータによるハードウェア効率のよいゴーストモジュール
- Authors: Chengpeng Chen, Zichao Guo, Haien Zeng, Pengfei Xiong, Jian Dong
- Abstract要約: 機能再利用は、軽量畳み込みニューラルネットワーク(CNN)設計において重要な技術である。
ハードウェア効率のよいRepGhostモジュールがre-パラメータ化による暗黙的な機能再利用のために提案されている。
ImageNetとCOCOベンチマークの実験では、提案されたRepGhostNetはモバイルデバイス上でのGhostNetやMobileNetV3よりも効率的で効率的であることが示されている。
- 参考スコア(独自算出の注目度): 13.080765595494215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature reuse has been a key technique in light-weight convolutional neural
networks (CNNs) design. Current methods usually utilize a concatenation
operator to keep large channel numbers cheaply (thus large network capacity) by
reusing feature maps from other layers. Although concatenation is parameters-
and FLOPs-free, its computational cost on hardware devices is non-negligible.
To address this, this paper provides a new perspective to realize feature reuse
via structural re-parameterization technique. A novel hardware-efficient
RepGhost module is proposed for implicit feature reuse via re-parameterization,
instead of using concatenation operator. Based on the RepGhost module, we
develop our efficient RepGhost bottleneck and RepGhostNet. Experiments on
ImageNet and COCO benchmarks demonstrate that the proposed RepGhostNet is much
more effective and efficient than GhostNet and MobileNetV3 on mobile devices.
Specially, our RepGhostNet surpasses GhostNet 0.5x by 2.5% Top-1 accuracy on
ImageNet dataset with less parameters and comparable latency on an ARM-based
mobile phone.
- Abstract(参考訳): 機能再利用は、軽量畳み込みニューラルネットワーク(CNN)設計において重要な技術である。
現在の方法は通常、連結演算子を使用して、他の層からの特徴マップを再利用することで、大きなチャネル番号を安価に維持する(ネットワーク容量を増加させる)。
結合はパラメータとフラップフリーであるが、ハードウェアデバイスでの計算コストは無視できない。
そこで本稿では,構造的再パラメータ化手法による機能再利用を実現するための新しい視点を提案する。
結合演算子の代わりに、再パラメータ化による暗黙的な機能再利用のために、ハードウェア効率の良いRepGhostモジュールが提案されている。
RepGhostモジュールに基づいて、効率的なRepGhostボトルネックとRepGhostNetを開発する。
ImageNetとCOCOベンチマークの実験では、提案されたRepGhostNetはモバイルデバイス上でのGhostNetやMobileNetV3よりも効率的で効率的であることが示されている。
特に、私たちのRepGhostNetは、ARMベースの携帯電話で、パラメータが少なく、同等のレイテンシで、ImageNetデータセットでGhostNet 0.5倍の2.5%のTop-1精度を達成しています。
関連論文リスト
- Ghost-Stereo: GhostNet-based Cost Volume Enhancement and Aggregation for Stereo Matching Networks [0.0]
ステレオマッチングに基づく深度推定の現在の手法は,多数のパラメータとスローランニング時間に悩まされている。
本稿では,新しいステレオマッチングネットワークであるGhost-Stereoを提案する。
Ghost-Stereoは、いくつかの公開ベンチマークで最先端のリアルタイムメソッドと同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-23T13:02:30Z) - GhostNetV2: Enhance Cheap Operation with Long-Range Attention [59.65543143580889]
ハードウェアフレンドリーなアテンション機構(DFCアテンション)を提案し,モバイルアプリケーション用の新しいGhostNetV2アーキテクチャを提案する。
提案したDFCアテンションは、ハードウェア上で高速に動作できるだけでなく、長距離画素間の依存を捉えることができる完全接続層に基づいて構築されている。
さらに,従来のGhostNetのボトルネックを再考し,DFCに着目した安価な操作による機能拡張を提案する。
論文 参考訳(メタデータ) (2022-11-23T12:16:59Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - GhostNets on Heterogeneous Devices via Cheap Operations [129.15798618025127]
本稿では,CPU効率のよいGhost(C-Ghost)モジュールを提案する。
ベンチマーク実験により,提案したC-GhostモジュールとG-Ghostステージの有効性が示された。
C-GhostNetとG-GhostNetは、それぞれCPUとGPUの精度とレイテンシの最適なトレードオフを達成することができる。
論文 参考訳(メタデータ) (2022-01-10T11:46:38Z) - GhostShiftAddNet: More Features from Energy-Efficient Operations [1.2891210250935146]
ディープ畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、計算とメモリ集約である。
本稿では,ハードウェア効率のよいディープネットワークを実現するGhostShiftAddNetを提案する。
我々は新しいボトルネックブロックであるGhostSAを導入し、ブロック内のすべての乗算を安価な演算に変換する。
論文 参考訳(メタデータ) (2021-09-20T12:50:42Z) - MicroNet: Improving Image Recognition with Extremely Low FLOPs [82.54764264255505]
疎結合性と動的アクティベーション関数の2つの要因が,精度向上に有効であることがわかった。
非線形性を改善するために動的シフトマックスと呼ばれる新しい動的アクティベーション関数を提案する。
私たちはMicroNetというネットワークのファミリに到達し、低FLOP体制下での最先端技術に対して大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2021-08-12T17:59:41Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - DyNet: Dynamic Convolution for Accelerating Convolutional Neural
Networks [16.169176006544436]
本稿では,画像内容に基づいてコンボリューションカーネルを適応的に生成する動的畳み込み手法を提案する。
MobileNetV3-Small/Largeアーキテクチャに基づいて、DyNetはImageNet上で70.3/77.1%のTop-1精度を達成し、2.9/1.9%改善した。
論文 参考訳(メタデータ) (2020-04-22T16:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。