論文の概要: Quick-CapsNet (QCN): A fast alternative to Capsule Networks
- arxiv url: http://arxiv.org/abs/2510.07600v1
- Date: Wed, 08 Oct 2025 22:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.763132
- Title: Quick-CapsNet (QCN): A fast alternative to Capsule Networks
- Title(参考訳): Quick-CapsNet (QCN): Capsule Networksの高速な代替品
- Authors: Pouya Shiri, Ramin Sharifi, Amirali Baniasadi,
- Abstract要約: 我々はCapsNetの高速な代替手段としてQuick-CapsNet(QCN)を紹介した。
QCNは少ない数のカプセルを生産し、ネットワークを高速化する。
MNIST、F-MNIST、SVHN、Cifar-10データセットでは推論が5倍高速である。
- 参考スコア(独自算出の注目度): 0.06372261626436675
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The basic computational unit in Capsule Network (CapsNet) is a capsule (vs. neurons in Convolutional Neural Networks (CNNs)). A capsule is a set of neurons, which form a vector. CapsNet is used for supervised classification of data and has achieved state-of-the-art accuracy on MNIST digit recognition dataset, outperforming conventional CNNs in detecting overlapping digits. Moreover, CapsNet shows higher robustness towards affine transformation when compared to CNNs for MNIST datasets. One of the drawbacks of CapsNet, however, is slow training and testing. This can be a bottleneck for applications that require a fast network, especially during inference. In this work, we introduce Quick-CapsNet (QCN) as a fast alternative to CapsNet, which can be a starting point to develop CapsNet for fast real-time applications. QCN builds on producing a fewer number of capsules, which results in a faster network. QCN achieves this at the cost of marginal loss in accuracy. Inference is 5x faster on MNIST, F-MNIST, SVHN and Cifar-10 datasets. We also further enhanced QCN by employing a more powerful decoder instead of the default decoder to further improve QCN.
- Abstract(参考訳): Capsule Network(CapsNet)の基本計算ユニットはカプセル(vs)である。
畳み込みニューラルネットワーク(CNN)のニューロン。
カプセルは、ベクターを形成するニューロンの集合である。
CapsNetはデータの教師付き分類に使われ、MNIST桁認識データセットで最先端の精度を達成し、重複する桁を検出する従来のCNNよりも優れている。
さらに、CapsNetはMNISTデータセットのCNNと比較してアフィン変換に対する堅牢性が高い。
しかしCapsNetの欠点の1つは、遅いトレーニングとテストだ。
これは、高速なネットワークを必要とするアプリケーション、特に推論時にボトルネックになる可能性がある。
本稿では,CapsNetの高速な代替としてQuick-CapsNet(QCN)を導入する。
QCNは少ない数のカプセルを生産し、ネットワークを高速化する。
QCNは精度の限界損失を犠牲にしてこれを達成している。
MNIST、F-MNIST、SVHN、Cifar-10データセットでは推論が5倍高速である。
また、QCNをさらに改善するために、デフォルトのデコーダの代わりにより強力なデコーダを使用することにより、QCNをさらに強化した。
関連論文リスト
- Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Momentum Capsule Networks [0.8594140167290097]
我々はMoCapsNet(Momentum Capsule Network)と呼ばれる新しいネットワークアーキテクチャを提案する。
MoCapsNetは、残留するビルディングブロックを適用するネットワークの一種であるMomentum ResNetsにインスパイアされている。
我々は,MNIST,SVHN,CIFAR-10のベースラインカプセルネットワークの精度をはるかに低めながら,MoCapsNetが精度を上回っていることを示す。
論文 参考訳(メタデータ) (2022-01-26T17:53:18Z) - Spiking CapsNet: A Spiking Neural Network With A Biologically Plausible
Routing Rule Between Capsules [9.658836348699161]
スパイキングニューラルネットワーク(SNN)は、その強力な時間情報表現能力により、多くの注目を集めている。
CapsNetは、さまざまなレベルの組み立てと結合でうまく機能する。
ニューラルネットワークのモデリングにカプセルを導入することで、Spking CapsNetを提案する。
論文 参考訳(メタデータ) (2021-11-15T14:23:15Z) - Shifting Capsule Networks from the Cloud to the Deep Edge [0.9712140341805068]
本稿では,Cortex-MおよびRISC-V MCUにおける量子化CapsNetの実行のためのAPIを提案する。
その結果、メモリフットプリントが75%近く減少し、最大精度が1%低下した。
スループットに関しては、Arm Cortex-M用のソフトウェアカーネルは、NVIDIA GTX 980 Tiグラフィックカード上で動作するプリ量子化CapsNetよりも少なくとも5.70倍高速です。
論文 参考訳(メタデータ) (2021-10-06T16:52:01Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks [12.022910298030219]
Capsule Networks(CapsNets)は、従来のCNNと比較して、画像分類のような機械学習タスクにおいて優れた学習能力を持つ。
CapsNetは、非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスにおいて、元の形式でのデプロイが困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-04-15T14:32:45Z) - Visual Commonsense R-CNN [102.5061122013483]
本稿では,新しい教師なし特徴表現学習手法であるVisual Commonsense Region-based Convolutional Neural Network (VC R-CNN)を提案する。
VC R-CNNは、キャプションやVQAのような高レベルのタスクのための改善された視覚領域エンコーダとして機能する。
我々は、画像キャプション、VQA、VCRの3つの一般的なタスクのモデルにおいて、VC R-CNNの機能を広く適用し、それら全体で一貫したパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2020-02-27T15:51:19Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。