論文の概要: Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks
- arxiv url: http://arxiv.org/abs/2004.07116v2
- Date: Fri, 17 Apr 2020 08:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 02:56:17.450630
- Title: Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks
- Title(参考訳): q-capsnets:カプセルネットワークの定量化のためのフレームワーク
- Authors: Alberto Marchisio, Beatrice Bussolino, Alessio Colucci, Maurizio
Martina, Guido Masera, Muhammad Shafique
- Abstract要約: Capsule Networks(CapsNets)は、従来のCNNと比較して、画像分類のような機械学習タスクにおいて優れた学習能力を持つ。
CapsNetは、非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスにおいて、元の形式でのデプロイが困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
- 参考スコア(独自算出の注目度): 12.022910298030219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capsule Networks (CapsNets), recently proposed by the Google Brain team, have
superior learning capabilities in machine learning tasks, like image
classification, compared to the traditional CNNs. However, CapsNets require
extremely intense computations and are difficult to be deployed in their
original form at the resource-constrained edge devices. This paper makes the
first attempt to quantize CapsNet models, to enable their efficient edge
implementations, by developing a specialized quantization framework for
CapsNets. We evaluate our framework for several benchmarks. On a deep CapsNet
model for the CIFAR10 dataset, the framework reduces the memory footprint by
6.2x, with only 0.15% accuracy loss. We will open-source our framework at
https://git.io/JvDIF in August 2020.
- Abstract(参考訳): Google Brainチームが最近提案したCapsule Networks(CapsNets)は、画像分類のような機械学習タスクにおいて、従来のCNNと比較して優れた学習能力を持っている。
しかし、CapsNetsは非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスで元の形式でデプロイすることは困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
いくつかのベンチマークでフレームワークを評価した。
CIFAR10データセットの深いCapsNetモデルでは、このフレームワークはメモリフットプリントを6.2倍に減らし、精度はわずか 0.15% である。
私たちは2020年8月にhttps://git.io/JvDIFでフレームワークをオープンソース化します。
関連論文リスト
- PDR-CapsNet: an Energy-Efficient Parallel Approach to Dynamic Routing in
Capsule Networks [0.27195102129095]
畳み込みニューラルネットワーク(CNN)は、画像分類タスクの最先端の結果を生み出している。
しかし、CapsNetsは複雑なデータセットに乏しく、CNNよりも多くの計算リソースを必要とすることが多い。
本稿では,PDR-CapsNetの代替として,Parallel Dynamic Routing CapsNet(PDR-CapsNet)を紹介した。
パラメータは87.26%、パラメータは32.27%、MACは47.40%、Flopsは87.26%、精度は83.55%です。
論文 参考訳(メタデータ) (2023-10-04T23:38:09Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Momentum Capsule Networks [0.8594140167290097]
我々はMoCapsNet(Momentum Capsule Network)と呼ばれる新しいネットワークアーキテクチャを提案する。
MoCapsNetは、残留するビルディングブロックを適用するネットワークの一種であるMomentum ResNetsにインスパイアされている。
我々は,MNIST,SVHN,CIFAR-10のベースラインカプセルネットワークの精度をはるかに低めながら,MoCapsNetが精度を上回っていることを示す。
論文 参考訳(メタデータ) (2022-01-26T17:53:18Z) - Shifting Capsule Networks from the Cloud to the Deep Edge [0.9712140341805068]
本稿では,Cortex-MおよびRISC-V MCUにおける量子化CapsNetの実行のためのAPIを提案する。
その結果、メモリフットプリントが75%近く減少し、最大精度が1%低下した。
スループットに関しては、Arm Cortex-M用のソフトウェアカーネルは、NVIDIA GTX 980 Tiグラフィックカード上で動作するプリ量子化CapsNetよりも少なくとも5.70倍高速です。
論文 参考訳(メタデータ) (2021-10-06T16:52:01Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - ZeroQ: A Novel Zero Shot Quantization Framework [83.63606876854168]
量子化は、ニューラルネットワークの推論時間とメモリフットプリントを削減するための有望なアプローチである。
既存のゼロショット量子化法では、異なるエポックを用いてこの問題に対処するが、性能は低下する。
本稿では,この問題に対処する新しいゼロショット量子化フレームワークであるZeroQを提案する。
論文 参考訳(メタデータ) (2020-01-01T23:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。