論文の概要: Capsule Network Performance with Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2002.03181v1
- Date: Sat, 8 Feb 2020 15:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:31:01.419119
- Title: Capsule Network Performance with Autonomous Navigation
- Title(参考訳): 自律ナビゲーションによるカプセルネットワーク性能
- Authors: Thomas Molnar and Eugenio Culurciello
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の代替として、カプセルネットワーク(CapsNets)が提案されている。
本稿では,実シナリオの自律的エージェント探索において,CapsNetsがCNNよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 3.4900381065671917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capsule Networks (CapsNets) have been proposed as an alternative to
Convolutional Neural Networks (CNNs). This paper showcases how CapsNets are
more capable than CNNs for autonomous agent exploration of realistic scenarios.
In real world navigation, rewards external to agents may be rare. In turn,
reinforcement learning algorithms can struggle to form meaningful policy
functions. This paper's approach Capsules Exploration Module (Caps-EM) pairs a
CapsNets architecture with an Advantage Actor Critic algorithm. Other
approaches for navigating sparse environments require intrinsic reward
generators, such as the Intrinsic Curiosity Module (ICM) and Augmented
Curiosity Modules (ACM). Caps-EM uses a more compact architecture without need
for intrinsic rewards. Tested using ViZDoom, the Caps-EM uses 44% and 83% fewer
trainable network parameters than the ICM and Depth-Augmented Curiosity Module
(D-ACM), respectively, for 1141% and 437% average time improvement over the ICM
and D-ACM, respectively, for converging to a policy function across "My Way
Home" scenarios.
- Abstract(参考訳): Capsule Networks (CapsNets) は、CNN(Convolutional Neural Networks)の代替として提案されている。
本稿では,実シナリオの自律的エージェント探索において,CapsNetsがCNNよりも優れていることを示す。
現実世界のナビゲーションでは、エージェントの外部からの報酬はまれである。
強化学習アルゴリズムは、有意義なポリシー機能を形成するのに苦労する。
本稿では,Capsules Exploration Module (Caps-EM) とAdvantage Actor Criticアルゴリズムを組み合わせたCapsNetsアーキテクチャを提案する。
スパース環境をナビゲートするための他のアプローチは、固有の好奇性モジュール(ICM)や拡張好奇性モジュール(ACM)のような固有報酬生成器を必要とする。
Caps-EMは、本質的な報酬を必要としない、よりコンパクトなアーキテクチャを使用する。
vizdoomでテストされたcaps-emは、icmおよびd-acmよりも44%と83%のトレーニング可能なネットワークパラメータを使用しており、それぞれ1141%、d-acmの平均時間改善率437%で、"my way home"シナリオにまたがるポリシー関数に収束する。
関連論文リスト
- Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Momentum Capsule Networks [0.8594140167290097]
我々はMoCapsNet(Momentum Capsule Network)と呼ばれる新しいネットワークアーキテクチャを提案する。
MoCapsNetは、残留するビルディングブロックを適用するネットワークの一種であるMomentum ResNetsにインスパイアされている。
我々は,MNIST,SVHN,CIFAR-10のベースラインカプセルネットワークの精度をはるかに低めながら,MoCapsNetが精度を上回っていることを示す。
論文 参考訳(メタデータ) (2022-01-26T17:53:18Z) - Novel Dual-Channel Long Short-Term Memory Compressed Capsule Networks
for Emotion Recognition [1.1799563040751588]
本研究では,テキストに依存しない,話者に依存しない新しいSERアーキテクチャを提案する。
CapsNetの構造的特徴に基づいて,2チャネル長短期メモリ圧縮CapsNetアルゴリズムを提案する。
4つのデータセットとMFCCのデルタデルタを使って、DC-LSTM COMP-CapsNetは最先端のシステムをすべて超越している。
論文 参考訳(メタデータ) (2021-12-26T10:37:35Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - Shifting Capsule Networks from the Cloud to the Deep Edge [0.9712140341805068]
本稿では,Cortex-MおよびRISC-V MCUにおける量子化CapsNetの実行のためのAPIを提案する。
その結果、メモリフットプリントが75%近く減少し、最大精度が1%低下した。
スループットに関しては、Arm Cortex-M用のソフトウェアカーネルは、NVIDIA GTX 980 Tiグラフィックカード上で動作するプリ量子化CapsNetよりも少なくとも5.70倍高速です。
論文 参考訳(メタデータ) (2021-10-06T16:52:01Z) - Adaptive Recursive Circle Framework for Fine-grained Action Recognition [95.51097674917851]
ビデオにおける微粒な空間時間ダイナミクスのモデル化は、アクション認識にとって難しい問題である。
既存のほとんどのメソッドは、純粋なフィードフォワード方式でレイヤの特徴を生成する。
本稿では,純粋なフィードフォワード層のための微細なデコレータであるAdaptive Recursive Circleフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-25T14:24:29Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - iCapsNets: Towards Interpretable Capsule Networks for Text
Classification [95.31786902390438]
従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
論文 参考訳(メタデータ) (2020-05-16T04:11:44Z) - Continuous sign language recognition from wearable IMUs using deep
capsule networks and game theory [0.0]
本稿では,インド手話認識のための新しい1次元深層カプセルネットワーク(CapsNet)を提案する。
提案したCapsNetでは、3つのルーティングで94%、5つのルーティングで92.50%の精度が向上し、畳み込みニューラルネットワーク(CNN)では87.99%の精度が得られた。
論文 参考訳(メタデータ) (2020-04-27T01:21:16Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。