論文の概要: GhostNets on Heterogeneous Devices via Cheap Operations
- arxiv url: http://arxiv.org/abs/2201.03297v1
- Date: Mon, 10 Jan 2022 11:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 16:55:41.746495
- Title: GhostNets on Heterogeneous Devices via Cheap Operations
- Title(参考訳): 安価操作による異種デバイス上のゴーストネット
- Authors: Kai Han, Yunhe Wang, Chang Xu, Jianyuan Guo, Chunjing Xu, Enhua Wu, Qi
Tian
- Abstract要約: 本稿では,CPU効率のよいGhost(C-Ghost)モジュールを提案する。
ベンチマーク実験により,提案したC-GhostモジュールとG-Ghostステージの有効性が示された。
C-GhostNetとG-GhostNetは、それぞれCPUとGPUの精度とレイテンシの最適なトレードオフを達成することができる。
- 参考スコア(独自算出の注目度): 129.15798618025127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying convolutional neural networks (CNNs) on mobile devices is difficult
due to the limited memory and computation resources. We aim to design efficient
neural networks for heterogeneous devices including CPU and GPU, by exploiting
the redundancy in feature maps, which has rarely been investigated in neural
architecture design. For CPU-like devices, we propose a novel CPU-efficient
Ghost (C-Ghost) module to generate more feature maps from cheap operations.
Based on a set of intrinsic feature maps, we apply a series of linear
transformations with cheap cost to generate many ghost feature maps that could
fully reveal information underlying intrinsic features. The proposed C-Ghost
module can be taken as a plug-and-play component to upgrade existing
convolutional neural networks. C-Ghost bottlenecks are designed to stack
C-Ghost modules, and then the lightweight C-GhostNet can be easily established.
We further consider the efficient networks for GPU devices. Without involving
too many GPU-inefficient operations (e.g.,, depth-wise convolution) in a
building stage, we propose to utilize the stage-wise feature redundancy to
formulate GPU-efficient Ghost (G-Ghost) stage structure. The features in a
stage are split into two parts where the first part is processed using the
original block with fewer output channels for generating intrinsic features,
and the other are generated using cheap operations by exploiting stage-wise
redundancy. Experiments conducted on benchmarks demonstrate the effectiveness
of the proposed C-Ghost module and the G-Ghost stage. C-GhostNet and G-GhostNet
can achieve the optimal trade-off of accuracy and latency for CPU and GPU,
respectively. Code is available at https://github.com/huawei-noah/CV-Backbones.
- Abstract(参考訳): メモリと計算資源が限られているため、モバイルデバイスに畳み込みニューラルネットワーク(CNN)をデプロイすることは難しい。
我々は,CPUやGPUを含む異種デバイスのための効率的なニューラルネットワークを,ニューラルアーキテクチャ設計ではほとんど研究されていない特徴マップの冗長性を利用して設計することを目指している。
cpuライクなデバイスでは、安価な操作からより多くの機能マップを生成する新しいcpu効率の良いghost(c-ghost)モジュールを提案する。
本質的特徴マップのセットに基づいて,一連の線形変換を安価に適用し,本質的特徴に関する情報を完全に明らかにする多くのゴースト特徴マップを生成する。
提案するc-ghostモジュールは、既存の畳み込みニューラルネットワークをアップグレードするためのプラグアンドプレイコンポーネントとして利用することができる。
C-GhostのボトルネックはC-Ghostモジュールをスタックするように設計されており、軽量なC-GhostNetを簡単に確立することができる。
さらに、GPUデバイスの効率的なネットワークについても検討する。
構築段階ではGPU非効率な操作が多すぎる(例えば、深さ方向の畳み込み)ことなく、GPU非効率なゴースト(G-Ghost)ステージ構造を定式化する。
ステージ内の特徴は、本来の特徴を生成する出力チャネルが少なく、第1の部分を元のブロックで処理する部分と、ステージの冗長性を利用して安価な操作で生成する部分とに分けられる。
ベンチマーク実験により,提案したC-GhostモジュールとG-Ghostステージの有効性が示された。
C-GhostNetとG-GhostNetは、それぞれCPUとGPUの精度とレイテンシの最適なトレードオフを達成することができる。
コードはhttps://github.com/huawei-noah/CV-Backbonesで入手できる。
関連論文リスト
- Ghost-Stereo: GhostNet-based Cost Volume Enhancement and Aggregation for Stereo Matching Networks [0.0]
ステレオマッチングに基づく深度推定の現在の手法は,多数のパラメータとスローランニング時間に悩まされている。
本稿では,新しいステレオマッチングネットワークであるGhost-Stereoを提案する。
Ghost-Stereoは、いくつかの公開ベンチマークで最先端のリアルタイムメソッドと同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-23T13:02:30Z) - GRAN: Ghost Residual Attention Network for Single Image Super Resolution [44.4178326950426]
本稿では,Ghost Residual Attention Block (GRAB) グループを導入し,標準的な畳み込み操作の欠点を克服する。
Ghost Moduleは、標準の畳み込みを置き換えるために線形操作を採用することで、本質的な機能の基盤となる情報を明らかにすることができる。
ベンチマークデータセットを用いて行った実験は,定性的・定量的に,本手法の優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-02-28T13:26:24Z) - GhostNetV2: Enhance Cheap Operation with Long-Range Attention [59.65543143580889]
ハードウェアフレンドリーなアテンション機構(DFCアテンション)を提案し,モバイルアプリケーション用の新しいGhostNetV2アーキテクチャを提案する。
提案したDFCアテンションは、ハードウェア上で高速に動作できるだけでなく、長距離画素間の依存を捉えることができる完全接続層に基づいて構築されている。
さらに,従来のGhostNetのボトルネックを再考し,DFCに着目した安価な操作による機能拡張を提案する。
論文 参考訳(メタデータ) (2022-11-23T12:16:59Z) - RepGhost: A Hardware-Efficient Ghost Module via Re-parameterization [13.605461609002539]
機能再利用は、軽量畳み込みニューラルネットワーク(CNN)アーキテクチャ設計において重要な技術である。
現在の手法では、他のレイヤから特徴マップを再利用することで、大容量のチャネル番号を安価に維持するために、連結演算子を利用する。
本稿では、結合ではなく、暗黙的に、より効率的に機能再利用を実現するための新しい視点を提供する。
論文 参考訳(メタデータ) (2022-11-11T09:44:23Z) - GhostShiftAddNet: More Features from Energy-Efficient Operations [1.2891210250935146]
ディープ畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、計算とメモリ集約である。
本稿では,ハードウェア効率のよいディープネットワークを実現するGhostShiftAddNetを提案する。
我々は新しいボトルネックブロックであるGhostSAを導入し、ブロック内のすべての乗算を安価な演算に変換する。
論文 参考訳(メタデータ) (2021-09-20T12:50:42Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。