論文の概要: LE-CapsNet: A Light and Enhanced Capsule Network
- arxiv url: http://arxiv.org/abs/2511.11708v1
- Date: Wed, 12 Nov 2025 15:45:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.07545
- Title: LE-CapsNet: A Light and Enhanced Capsule Network
- Title(参考訳): LE-CapsNet: 軽量で拡張されたカプセルネットワーク
- Authors: Pouya Shiri, Amirali Baniasadi,
- Abstract要約: Capsule Network(CapsNet)はCNNに対していくつかの利点がある。
CapsNetは構造が異なるため遅い。
本稿では, LE-CapsNet を軽量で拡張した CapsNet の変種として提案する。
- 参考スコア(独自算出の注目度): 0.07161783472741746
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capsule Network (CapsNet) classifier has several advantages over CNNs, including better detection of images containing overlapping categories and higher accuracy on transformed images. Despite the advantages, CapsNet is slow due to its different structure. In addition, CapsNet is resource-hungry, includes many parameters and lags in accuracy compared to CNNs. In this work, we propose LE-CapsNet as a light, enhanced and more accurate variant of CapsNet. Using 3.8M weights, LECapsNet obtains 76.73% accuracy on the CIFAR-10 dataset while performing inference 4x faster than CapsNet. In addition, our proposed network is more robust at detecting images with affine transformations compared to CapsNet. We achieve 94.3% accuracy on the AffNIST dataset (compared to CapsNet 90.52%).
- Abstract(参考訳): Capsule Network(CapsNet)分類器は、重複するカテゴリを含む画像の検出や変換された画像の精度の向上など、CNNに対していくつかの利点がある。
利点はあるものの、CapsNetは構造が異なるため遅い。
加えて、CapsNetはリソース不足であり、CNNと比較して多くのパラメータとラグの精度を含んでいる。
本稿では, LE-CapsNet を軽量で拡張された CapsNet のより正確な変種として提案する。
LECapsNetは3.8M重みを使い、CIFAR-10データセット上で76.73%の精度を獲得し、CapsNetより4倍高速な推論を行う。
また,提案するネットワークは,CapsNetに比べてアフィン変換による画像の検出がより堅牢である。
AffNISTデータセット(CapsNet 90.52%と比較)で94.3%の精度を達成した。
関連論文リスト
- Convolutional Fully-Connected Capsule Network (CFC-CapsNet): A Novel and Fast Capsule Network [0.07161783472741746]
本稿では,CapsNetの欠点を解決するために,Convolutional Fully-Connected Capsule Network (CFC-CapsNet)を紹介する。
CFC-CapsNetはより少ないがより強力なカプセルを生成し、ネットワークの精度が向上する。
実験の結果,CFC-CapsNetは競争精度,トレーニング,推論の高速化を実現していることがわかった。
論文 参考訳(メタデータ) (2025-11-06T19:27:15Z) - Quick-CapsNet (QCN): A fast alternative to Capsule Networks [0.06372261626436675]
我々はCapsNetの高速な代替手段としてQuick-CapsNet(QCN)を紹介した。
QCNは少ない数のカプセルを生産し、ネットワークを高速化する。
MNIST、F-MNIST、SVHN、Cifar-10データセットでは推論が5倍高速である。
論文 参考訳(メタデータ) (2025-10-08T22:41:28Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - MogaNet: Multi-order Gated Aggregation Network [61.842116053929736]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs [148.0476219278875]
現代畳み込みニューラルネットワーク(CNN)における大規模カーネル設計の再検討
本稿では、視覚変換器(ViT)の最近の進歩に触発されて、小さなカーネルのスタックではなく、少数の大きな畳み込みカーネルを使うことが、より強力なパラダイムであることを実証する。
本稿では,カーネルサイズが31x31の純粋なCNNアーキテクチャであるRepLKNetを提案する。
論文 参考訳(メタデータ) (2022-03-13T17:22:44Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - iCapsNets: Towards Interpretable Capsule Networks for Text
Classification [95.31786902390438]
従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
論文 参考訳(メタデータ) (2020-05-16T04:11:44Z) - Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks [12.022910298030219]
Capsule Networks(CapsNets)は、従来のCNNと比較して、画像分類のような機械学習タスクにおいて優れた学習能力を持つ。
CapsNetは、非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスにおいて、元の形式でのデプロイが困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-04-15T14:32:45Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。