論文の概要: Wasserstein Routed Capsule Networks
- arxiv url: http://arxiv.org/abs/2007.11465v1
- Date: Wed, 22 Jul 2020 14:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:02:53.037489
- Title: Wasserstein Routed Capsule Networks
- Title(参考訳): wasserstein経路カプセルネットワーク
- Authors: Alexander Fuchs, Franz Pernkopf
- Abstract要約: 複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
- 参考スコア(独自算出の注目度): 90.16542156512405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capsule networks offer interesting properties and provide an alternative to
today's deep neural network architectures. However, recent approaches have
failed to consistently achieve competitive results across different image
datasets. We propose a new parameter efficient capsule architecture, that is
able to tackle complex tasks by using neural networks trained with an
approximate Wasserstein objective to dynamically select capsules throughout the
entire architecture. This approach focuses on implementing a robust routing
scheme, which can deliver improved results using little overhead. We perform
several ablation studies verifying the proposed concepts and show that our
network is able to substantially outperform other capsule approaches by over
1.2 % on CIFAR-10, using fewer parameters.
- Abstract(参考訳): カプセルネットワークは興味深い特性を提供し、今日のディープニューラルネットワークアーキテクチャの代替を提供する。
しかし、最近のアプローチでは、異なる画像データセット間で一貫して競争的な結果を達成できていない。
そこで本研究では,概ねwasserstein目標でトレーニングされたニューラルネットワークを用いて,カプセル全体を動的に選択することにより,複雑なタスクに対処できる新しいパラメーター効率の高いカプセルアーキテクチャを提案する。
このアプローチは、少ないオーバーヘッドで改善された結果を提供できるロバストなルーティングスキームの実装に焦点を当てる。
提案した概念を検証し,CIFAR-10で他のカプセルのアプローチを1.2%以上上回り,より少ないパラメータで実現可能であることを示す。
関連論文リスト
- Efficient and Accurate Hyperspectral Image Demosaicing with Neural Network Architectures [3.386560551295746]
本研究では,ハイパースペクトル画像復調におけるニューラルネットワークアーキテクチャの有効性について検討した。
様々なネットワークモデルと修正を導入し、それらを従来の手法や既存の参照ネットワークアプローチと比較する。
その結果、我々のネットワークは、例外的な性能を示す両方のデータセットにおいて、参照モデルよりも優れるか、一致していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T08:02:49Z) - ProtoCaps: A Fast and Non-Iterative Capsule Network Routing Method [6.028175460199198]
本稿では,カプセルネットワークのための新しい非定型ルーティング機構を提案する。
私たちは共有のCapsuleサブスペースを利用し、各下位のCapsuleを各上位のCapsuleに投影する必要性を否定します。
本研究は,カプセルネットワークの運用効率と性能を向上させるための提案手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-19T12:39:40Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - DAAS: Differentiable Architecture and Augmentation Policy Search [107.53318939844422]
この研究は、ニューラルネットワークとデータ拡張のカップリングの可能性を検討し、それらを共同で検索する効果的なアルゴリズムを提案する。
CIFAR-10では97.91%、ImageNetデータセットでは76.6%の精度で97.91%の精度を達成し、検索アルゴリズムの優れた性能を示している。
論文 参考訳(メタデータ) (2021-09-30T17:15:17Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Efficient-CapsNet: Capsule Network with Self-Attention Routing [0.0]
深層畳み込みニューラルネットワークは、オブジェクト変換を埋め込むために、多数の機能マップを持つデータ拡張技術とレイヤを広範囲に活用する。
カプセルネットワークは、現在の畳み込みネットワークを拡張し、より効率的に全てのアフィン変換をエンコードするプロセスで人工的な視覚知覚を実現する、有望なソリューションである。
本稿では,カプセルネットワークの効率について検討し,その容量を160Kのパラメータをほとんど持たない極端なアーキテクチャで限界まで押し上げることにより,提案アーキテクチャがまだ最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2021-01-29T09:56:44Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Neural Inheritance Relation Guided One-Shot Layer Assignment Search [44.82474044430184]
CIFAR-100上でのレイヤ割り当てのアーキテクチャデータセットを構築することにより,異なるレイヤ割り当てがネットワーク性能に与える影響について検討する。
層割り当てが異なるネットワーク間の神経継承関係、すなわち、深いネットワークに最適な層割り当ては、浅いネットワークには常に継承される。
このニューラル継承関係に着想を得て,遺伝サンプリングによる効率的なワンショット層割当て探索手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T07:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。