論文の概要: Convolutional Fully-Connected Capsule Network (CFC-CapsNet): A Novel and Fast Capsule Network
- arxiv url: http://arxiv.org/abs/2511.05617v1
- Date: Thu, 06 Nov 2025 19:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.501327
- Title: Convolutional Fully-Connected Capsule Network (CFC-CapsNet): A Novel and Fast Capsule Network
- Title(参考訳): Convolutional Fully-Connected Capsule Network (CFC-CapsNet): 新規かつ高速なカプセルネットワーク
- Authors: Pouya Shiri, Amirali Baniasadi,
- Abstract要約: 本稿では,CapsNetの欠点を解決するために,Convolutional Fully-Connected Capsule Network (CFC-CapsNet)を紹介する。
CFC-CapsNetはより少ないがより強力なカプセルを生成し、ネットワークの精度が向上する。
実験の結果,CFC-CapsNetは競争精度,トレーニング,推論の高速化を実現していることがわかった。
- 参考スコア(独自算出の注目度): 0.07161783472741746
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A Capsule Network (CapsNet) is a relatively new classifier and one of the possible successors of Convolutional Neural Networks (CNNs). CapsNet maintains the spatial hierarchies between the features and outperforms CNNs at classifying images including overlapping categories. Even though CapsNet works well on small-scale datasets such as MNIST, it fails to achieve a similar level of performance on more complicated datasets and real applications. In addition, CapsNet is slow compared to CNNs when performing the same task and relies on a higher number of parameters. In this work, we introduce Convolutional Fully-Connected Capsule Network (CFC-CapsNet) to address the shortcomings of CapsNet by creating capsules using a different method. We introduce a new layer (CFC layer) as an alternative solution to creating capsules. CFC-CapsNet produces fewer, yet more powerful capsules resulting in higher network accuracy. Our experiments show that CFC-CapsNet achieves competitive accuracy, faster training and inference and uses less number of parameters on the CIFAR-10, SVHN and Fashion-MNIST datasets compared to conventional CapsNet.
- Abstract(参考訳): Capsule Network (CapsNet) は比較的新しい分類法であり、畳み込みニューラルネットワーク (CNN) の後継者の1つである。
CapsNetは特徴間の空間的階層を維持し、重複するカテゴリを含む画像の分類においてCNNを上回っている。
CapsNetはMNISTのような小規模データセットでうまく機能するが、より複雑なデータセットや実際のアプリケーションでは、同様のレベルのパフォーマンスを達成できない。
さらに、CapsNetは、同じタスクを実行するときのCNNよりも遅く、より多くのパラメータに依存する。
本研究では,別の方法を用いてカプセルを作成することにより,CapsNetの欠点を解決するために,Convolutional Fully-Connected Capsule Network(CFC-CapsNet)を導入する。
カプセルの代替として新しい層(CFC層)を導入する。
CFC-CapsNetはより少ないがより強力なカプセルを生成し、ネットワークの精度が向上する。
CFC-CapsNetは,従来のCapsNetと比較して,CIFAR-10,SVHN,Fashion-MNISTデータセットにおいて,競合精度,トレーニング,推論の高速化を実現し,パラメータ数が少ないことを示す。
関連論文リスト
- Quick-CapsNet (QCN): A fast alternative to Capsule Networks [0.06372261626436675]
我々はCapsNetの高速な代替手段としてQuick-CapsNet(QCN)を紹介した。
QCNは少ない数のカプセルを生産し、ネットワークを高速化する。
MNIST、F-MNIST、SVHN、Cifar-10データセットでは推論が5倍高速である。
論文 参考訳(メタデータ) (2025-10-08T22:41:28Z) - Return of ChebNet: Understanding and Improving an Overlooked GNN on Long Range Tasks [53.974190296524455]
我々はChebNetを再訪し、遠く離れたノードの相互作用をモデル化する能力について光を当てる。
我々はChebNetを安定かつ非散逸的力学系とみなし、Stable-ChebNetを造語した。
論文 参考訳(メタデータ) (2025-06-09T10:41:34Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - MogaNet: Multi-order Gated Aggregation Network [61.842116053929736]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - iCapsNets: Towards Interpretable Capsule Networks for Text
Classification [95.31786902390438]
従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
論文 参考訳(メタデータ) (2020-05-16T04:11:44Z) - Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks [12.022910298030219]
Capsule Networks(CapsNets)は、従来のCNNと比較して、画像分類のような機械学習タスクにおいて優れた学習能力を持つ。
CapsNetは、非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスにおいて、元の形式でのデプロイが困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-04-15T14:32:45Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。