論文の概要: Capsule network with shortcut routing
- arxiv url: http://arxiv.org/abs/2307.10212v1
- Date: Fri, 14 Jul 2023 13:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:15:44.239196
- Title: Capsule network with shortcut routing
- Title(参考訳): 近道経路を有するカプセルネットワーク
- Authors: Dang Thanh Vu, Vo Hoang Trong, Yu Gwang-Hyun and Kim Jin-Young
- Abstract要約: ショートカットルーティングは、計算不効率に対処するカプセルネットワークにおける新しいルーティング機構である。
ファジィベースのアテンションベースのルーティング手法は、EMルーティングに比べて計算回数を1.42倍と2.5倍に削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study introduces "shortcut routing," a novel routing mechanism in
capsule networks that addresses computational inefficiencies by directly
activating global capsules from local capsules, eliminating intermediate
layers. An attention-based approach with fuzzy coefficients is also explored
for improved efficiency. Experimental results on Mnist, smallnorb, and affNist
datasets show comparable classification performance, achieving accuracies of
99.52%, 93.91%, and 89.02% respectively. The proposed fuzzy-based and
attention-based routing methods significantly reduce the number of calculations
by 1.42 and 2.5 times compared to EM routing, highlighting their computational
advantages in capsule networks. These findings contribute to the advancement of
efficient and accurate hierarchical pattern representation models.
- Abstract(参考訳): 本研究は, ローカルカプセルから直接グローバルカプセルを活性化し, 中間層を除去することにより, 計算不効率に対処するカプセルネットワークの新しいルーティング機構であるショートカットルーティングを導入する。
ファジィ係数を用いた注意ベースアプローチも,効率向上のために検討した。
mnist, smallnorb, affnistデータセットの実験結果は、それぞれ99.52%、93.91%、89.02%の精度で分類された。
提案するファジィベースおよびアテンションベースルーティング手法は,emルーティングに比べて計算回数を1.22倍および2.5倍削減し,カプセルネットワークにおける計算上のアドバンテージを浮き彫りにした。
これらの知見は、効率的かつ正確な階層的パターン表現モデルの進歩に寄与する。
関連論文リスト
- ProtoCaps: A Fast and Non-Iterative Capsule Network Routing Method [6.028175460199198]
本稿では,カプセルネットワークのための新しい非定型ルーティング機構を提案する。
私たちは共有のCapsuleサブスペースを利用し、各下位のCapsuleを各上位のCapsuleに投影する必要性を否定します。
本研究は,カプセルネットワークの運用効率と性能を向上させるための提案手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-19T12:39:40Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - CATRO: Channel Pruning via Class-Aware Trace Ratio Optimization [61.71504948770445]
本稿では,CATRO (Class-Aware Trace Ratio Optimization) を用いた新しいチャネルプルーニング手法を提案する。
CATROは、他の最先端チャネルプルーニングアルゴリズムと同等の精度で、同様のコストまたは低コストで高い精度を達成できることを示す。
CATROは、クラス認識の特性のため、様々な分類サブタスクに適応的に効率の良いネットワークを創り出すのに適している。
論文 参考訳(メタデータ) (2021-10-21T06:26:31Z) - Graph Routing between Capsules [43.158403476750756]
グラフルーティングを備えた新しいカプセルネットワークを導入し,各レイヤのカプセルをグラフのノードとして扱うことにより,両方の関係を学習する。
提案手法を5つのテキスト分類データセットで検証し,ボトムアップ・ルーティングとトップダウン・アテンションを組み合わせたアプローチが最良であることが示唆された。
論文 参考訳(メタデータ) (2021-06-22T04:00:57Z) - Routing Towards Discriminative Power of Class Capsules [7.347145775695176]
本稿では,効率よく解ける正規化二次計画問題を含むルーティングアルゴリズムを提案する。
mnist,mnist-fashion,cifar-10の実験を行い,既存のカプセルネットワークと比較して競合分類結果を示す。
論文 参考訳(メタデータ) (2021-03-07T05:49:38Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Improving Sample Efficiency with Normalized RBF Kernels [0.0]
本稿では,正規化されたラジアル基底関数(RBF)カーネルを用いたニューラルネットワークをトレーニングして,より優れたサンプル効率を実現する方法について検討する。
この種の出力層は、どのようにしてクラスがコンパクトで適切に分離された埋め込み空間を見つけるかを示す。
CIFAR-10とCIFAR-100の実験により、正規化されたカーネルを出力層として持つネットワークは、より高いサンプリング効率、高いコンパクト性、そして良好な分離性が得られることが示された。
論文 参考訳(メタデータ) (2020-07-30T11:40:29Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。