論文の概要: PrunedCaps: A Case For Primary Capsules Discrimination
- arxiv url: http://arxiv.org/abs/2512.06003v1
- Date: Tue, 02 Dec 2025 04:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.14002
- Title: PrunedCaps: A Case For Primary Capsules Discrimination
- Title(参考訳): PrunedCaps: 一次カプセル識別の1例
- Authors: Ramin Sharifi, Pouya Shiri, Amirali Baniasadi,
- Abstract要約: 本稿では,CapsNetの刈り取られたバージョンが従来のアーキテクチャの9.90倍高速であることを示す。
我々の刈り取られたアーキテクチャは、アーキテクチャの動的ルーティング段階における浮動小数点演算の95.36パーセント以上を節約します。
- 参考スコア(独自算出の注目度): 0.06372261626436675
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capsule Networks (CapsNets) are a generation of image classifiers with proven advantages over Convolutional Neural Networks (CNNs). Better robustness to affine transformation and overlapping image detection are some of the benefits associated with CapsNets. However, CapsNets cannot be classified as resource-efficient deep learning architecture due to the high number of Primary Capsules (PCs). In addition, CapsNets' training and testing are slow and resource hungry. This paper investigates the possibility of Primary Capsules pruning in CapsNets on MNIST handwritten digits, Fashion-MNIST, CIFAR-10, and SVHN datasets. We show that a pruned version of CapsNet performs up to 9.90 times faster than the conventional architecture by removing 95 percent of Capsules without a loss of accuracy. Also, our pruned architecture saves on more than 95.36 percent of floating-point operations in the dynamic routing stage of the architecture. Moreover, we provide insight into why some datasets benefit significantly from pruning while others fall behind.
- Abstract(参考訳): Capsule Networks (CapsNets) は、畳み込みニューラルネットワーク(CNN)よりも優れた画像分類器である。
アフィン変換と重なり合うイメージ検出に対する堅牢性の改善は、CapsNetsに関連するメリットのひとつだ。
しかし、CapsNetsは大量のプライマリカプセル(PC)があるため、リソース効率のよいディープラーニングアーキテクチャには分類できない。
さらに、CapsNetsのトレーニングとテストは遅く、リソースが空いている。
本稿では,MNIST手書き桁,Fashion-MNIST,CIFAR-10,SVHNデータセット上でのCapsNetsにおけるプライマリカプセルプルーニングの可能性を検討する。
CapsNetの刈り取られたバージョンは、精度を損なわずに95%のCapsuleを取り除き、従来のアーキテクチャよりも9.90倍高速であることを示す。
また、アーキテクチャの動的ルーティング段階における浮動小数点演算の95.36パーセント以上を削減しています。
さらに、なぜいくつかのデータセットがプルーニングから大きな恩恵を受けるのか、他のデータセットが遅れているのか、といった知見も提供します。
関連論文リスト
- DL-CapsNet: A Deep and Light Capsule Network [0.07161783472741746]
いくつかのカプセル層からなるCapsNetの深いバリエーションを提案する。
DL-CapsNetは非常に正確だが、少数のパラメータを使用し、より高速なトレーニングと推論を提供する。
論文 参考訳(メタデータ) (2025-11-23T05:45:11Z) - LE-CapsNet: A Light and Enhanced Capsule Network [0.07161783472741746]
Capsule Network(CapsNet)はCNNに対していくつかの利点がある。
CapsNetは構造が異なるため遅い。
本稿では, LE-CapsNet を軽量で拡張した CapsNet の変種として提案する。
論文 参考訳(メタデータ) (2025-11-12T15:45:48Z) - Convolutional Fully-Connected Capsule Network (CFC-CapsNet): A Novel and Fast Capsule Network [0.07161783472741746]
本稿では,CapsNetの欠点を解決するために,Convolutional Fully-Connected Capsule Network (CFC-CapsNet)を紹介する。
CFC-CapsNetはより少ないがより強力なカプセルを生成し、ネットワークの精度が向上する。
実験の結果,CFC-CapsNetは競争精度,トレーニング,推論の高速化を実現していることがわかった。
論文 参考訳(メタデータ) (2025-11-06T19:27:15Z) - VeCLIP: Improving CLIP Training via Visual-enriched Captions [63.547204530720705]
本研究は,ノイズキャプション書き換えのためのスケーラブルパイプラインを提案する。
視覚豊かなキャプション(VeCap)と呼ばれるキャプションへの視覚概念の組み入れを強調した。
本稿では,大規模なWebクローリングデータセットであるVeCLIP上でCLIPをトレーニングするためのこの手法の適用について紹介する。
論文 参考訳(メタデータ) (2023-10-11T17:49:13Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - iCapsNets: Towards Interpretable Capsule Networks for Text
Classification [95.31786902390438]
従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
論文 参考訳(メタデータ) (2020-05-16T04:11:44Z) - Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks [12.022910298030219]
Capsule Networks(CapsNets)は、従来のCNNと比較して、画像分類のような機械学習タスクにおいて優れた学習能力を持つ。
CapsNetは、非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスにおいて、元の形式でのデプロイが困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-04-15T14:32:45Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。