論文の概要: Training Deep Capsule Networks with Residual Connections
- arxiv url: http://arxiv.org/abs/2104.07393v1
- Date: Thu, 15 Apr 2021 11:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 23:38:16.610531
- Title: Training Deep Capsule Networks with Residual Connections
- Title(参考訳): 残差接続による深層カプセルネットワークの訓練
- Authors: Josef Gugglberger, David Peer, Antonio Rodriguez-Sanchez
- Abstract要約: capsule networkは、最近人気が高まっているニューラルネットワークの一種だ。
それらはカプセルと呼ばれるニューロンのグループで構成され、オブジェクトやオブジェクトの部分の特性をエンコードする。
多くのカプセルネットワーク実装では2層から3層にカプセル層が使われており、表現性が指数関数的に大きくなり、適用性が制限されている。
4つのデータセットと3つの異なるルーティングアルゴリズムで評価された残差接続を用いた深層カプセルネットワークを訓練する手法を提案する。
実験の結果,より深いカプセルネットワークのトレーニングでは,性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capsule networks are a type of neural network that have recently gained
increased popularity. They consist of groups of neurons, called capsules, which
encode properties of objects or object parts. The connections between capsules
encrypt part-whole relationships between objects through routing algorithms
which route the output of capsules from lower level layers to upper level
layers. Capsule networks can reach state-of-the-art results on many challenging
computer vision tasks, such as MNIST, Fashion-MNIST, and Small-NORB. However,
most capsule network implementations use two to three capsule layers, which
limits their applicability as expressivity grows exponentially with depth. One
approach to overcome such limitations would be to train deeper network
architectures, as it has been done for convolutional neural networks with much
increased success. In this paper, we propose a methodology to train deeper
capsule networks using residual connections, which is evaluated on four
datasets and three different routing algorithms. Our experimental results show
that in fact, performance increases when training deeper capsule networks. The
source code is available on https://github.com/moejoe95/res-capsnet.
- Abstract(参考訳): capsule networkは、最近人気が高まっているニューラルネットワークの一種だ。
それらはカプセルと呼ばれるニューロンのグループで構成され、オブジェクトやオブジェクトの部分の特性をエンコードする。
カプセル間の接続は、低レベル層から上層層へのカプセルの出力をルーティングするアルゴリズムによって、オブジェクト間の部分的な関係を暗号化する。
カプセルネットワークは、MNIST、Fashion-MNIST、Small-NORBといった多くの挑戦的なコンピュータビジョンタスクにおいて、最先端の結果に到達することができる。
しかし、ほとんどのカプセルネットワークの実装では、2から3つのカプセル層を使用しており、その適用性を制限する。
このような制限を克服するためのアプローチのひとつは、より深いネットワークアーキテクチャをトレーニングすることだ。
本稿では,4つのデータセットと3つの異なるルーティングアルゴリズムを用いて,残差接続を用いた深層カプセルネットワークの訓練手法を提案する。
実験の結果,より深いカプセルネットワークのトレーニングでは,性能が向上することがわかった。
ソースコードはhttps://github.com/moejoe95/res-capsnetで入手できる。
関連論文リスト
- Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - Deep multi-prototype capsule networks [0.3823356975862005]
カプセルネットワーク(Capsule Network)は、画像の部分を特定し、階層的に全体のインスタンス化パラメータを形成するニューラルネットワークの一種である。
本稿では,画像部品のバリエーションを表現するためにカプセルネットワークを誘導するマルチプロトタイプアーキテクチャを提案する。
MNIST, SVHN, C-Cube, CEDAR, MCYT, UTSigのデータセットに対する実験結果から, 提案したモデルが画像分類精度で他のモデルよりも優れていることが明らかになった。
論文 参考訳(メタデータ) (2024-04-23T18:37:37Z) - Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Learning with Capsules: A Survey [73.31150426300198]
カプセルネットワークは、オブジェクト中心の表現を学習するための畳み込みニューラルネットワーク(CNN)に代わるアプローチとして提案された。
CNNとは異なり、カプセルネットワークは部分的に階層的な関係を明示的にモデル化するように設計されている。
論文 参考訳(メタデータ) (2022-06-06T15:05:36Z) - 3DConvCaps: 3DUnet with Convolutional Capsule Encoder for Medical Image
Segmentation [1.863532786702135]
本稿では,畳み込み層を用いた低レベル特徴(短距離注意)を学習するために,畳み込みカプセル(3DConvCaps)を用いた3Dエンコーダデコーダネットワークを提案する。
iSeg-2017、Hippocampus、Cardiacを含む複数のデータセットに関する実験では、我々の3D3DConvCapsネットワークが、以前のカプセルネットワークや3D-UNetsよりもかなり優れていることを示した。
論文 参考訳(メタデータ) (2022-05-19T03:00:04Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - Efficient-CapsNet: Capsule Network with Self-Attention Routing [0.0]
深層畳み込みニューラルネットワークは、オブジェクト変換を埋め込むために、多数の機能マップを持つデータ拡張技術とレイヤを広範囲に活用する。
カプセルネットワークは、現在の畳み込みネットワークを拡張し、より効率的に全てのアフィン変換をエンコードするプロセスで人工的な視覚知覚を実現する、有望なソリューションである。
本稿では,カプセルネットワークの効率について検討し,その容量を160Kのパラメータをほとんど持たない極端なアーキテクチャで限界まで押し上げることにより,提案アーキテクチャがまだ最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2021-01-29T09:56:44Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。