論文の概要: Momentum Capsule Networks
- arxiv url: http://arxiv.org/abs/2201.11091v1
- Date: Wed, 26 Jan 2022 17:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 15:33:20.516480
- Title: Momentum Capsule Networks
- Title(参考訳): 運動量カプセルネットワーク
- Authors: Josef Gugglberger and David Peer and Antonio Rodr\'iguez-S\'anchez
- Abstract要約: 我々はMoCapsNet(Momentum Capsule Network)と呼ばれる新しいネットワークアーキテクチャを提案する。
MoCapsNetは、残留するビルディングブロックを適用するネットワークの一種であるMomentum ResNetsにインスパイアされている。
我々は,MNIST,SVHN,CIFAR-10のベースラインカプセルネットワークの精度をはるかに低めながら,MoCapsNetが精度を上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capsule networks are a class of neural networks that achieved promising
results on many computer vision tasks. However, baseline capsule networks have
failed to reach state-of-the-art results on more complex datasets due to the
high computation and memory requirements. We tackle this problem by proposing a
new network architecture, called Momentum Capsule Network (MoCapsNet).
MoCapsNets are inspired by Momentum ResNets, a type of network that applies
reversible residual building blocks. Reversible networks allow for
recalculating activations of the forward pass in the backpropagation algorithm,
so those memory requirements can be drastically reduced. In this paper, we
provide a framework on how invertible residual building blocks can be applied
to capsule networks. We will show that MoCapsNet beats the accuracy of baseline
capsule networks on MNIST, SVHN and CIFAR-10 while using considerably less
memory. The source code is available on https://github.com/moejoe95/MoCapsNet.
- Abstract(参考訳): カプセルネットワークは、多くのコンピュータビジョンタスクで有望な結果を達成したニューラルネットワークのクラスである。
しかし、ベースラインカプセルネットワークは、高い計算とメモリ要求のために、より複雑なデータセットの最先端の結果に到達できなかった。
我々はmomomental capsule network (mocapsnet) と呼ばれる新しいネットワークアーキテクチャを提案することでこの問題に取り組む。
MoCapsNetsは、ResNetsの一種であるMomentum ResNetsにインスパイアされている。
可逆ネットワークは、バックプロパゲーションアルゴリズムにおいてフォワードパスのアクティベーションを再計算することで、メモリ要求を大幅に削減することができる。
本稿では,カプセルネットワークに対して可逆的残留ビルディングブロックをどのように適用できるかという枠組みを提案する。
我々は,MNIST,SVHN,CIFAR-10のベースラインカプセルネットワークの精度をはるかに低くして,MoCapsNetが精度を上回っていることを示す。
ソースコードはhttps://github.com/moejoe95/MoCapsNetで入手できる。
関連論文リスト
- Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Shifting Capsule Networks from the Cloud to the Deep Edge [0.9712140341805068]
本稿では,Cortex-MおよびRISC-V MCUにおける量子化CapsNetの実行のためのAPIを提案する。
その結果、メモリフットプリントが75%近く減少し、最大精度が1%低下した。
スループットに関しては、Arm Cortex-M用のソフトウェアカーネルは、NVIDIA GTX 980 Tiグラフィックカード上で動作するプリ量子化CapsNetよりも少なくとも5.70倍高速です。
論文 参考訳(メタデータ) (2021-10-06T16:52:01Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Training Deep Capsule Networks with Residual Connections [0.0]
capsule networkは、最近人気が高まっているニューラルネットワークの一種だ。
それらはカプセルと呼ばれるニューロンのグループで構成され、オブジェクトやオブジェクトの部分の特性をエンコードする。
多くのカプセルネットワーク実装では2層から3層にカプセル層が使われており、表現性が指数関数的に大きくなり、適用性が制限されている。
4つのデータセットと3つの異なるルーティングアルゴリズムで評価された残差接続を用いた深層カプセルネットワークを訓練する手法を提案する。
実験の結果,より深いカプセルネットワークのトレーニングでは,性能が向上することがわかった。
論文 参考訳(メタデータ) (2021-04-15T11:42:44Z) - Momentum Residual Neural Networks [22.32840998053339]
モーメント項を追加することで、ResNetの前方ルールを変更することを提案する。
MomentumNetsは既存のResNetブロックのドロップイン代替として使用できる。
我々は、MomentumNetsがResNetsと同じ精度であり、メモリフットプリントがはるかに小さいことを示す。
論文 参考訳(メタデータ) (2021-02-15T22:24:52Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Q-CapsNets: A Specialized Framework for Quantizing Capsule Networks [12.022910298030219]
Capsule Networks(CapsNets)は、従来のCNNと比較して、画像分類のような機械学習タスクにおいて優れた学習能力を持つ。
CapsNetは、非常に厳しい計算を必要とするため、リソース制約のあるエッジデバイスにおいて、元の形式でのデプロイが困難である。
本稿では,CapsNetモデルの量子化を初めて試み,その効率的なエッジ実装を実現するために,CapsNetの特殊な量子化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-04-15T14:32:45Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。