論文の概要: Wasserstein Embedding for Capsule Learning
- arxiv url: http://arxiv.org/abs/2209.00232v1
- Date: Thu, 1 Sep 2022 05:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:57:31.065385
- Title: Wasserstein Embedding for Capsule Learning
- Title(参考訳): カプセル学習のためのWasserstein埋め込み
- Authors: Pourya Shamsolmoali, Masoumeh Zareapoor, Swagatam Das, Eric Granger,
Salvador Garcia
- Abstract要約: Capsule Network(CapsNets)は、イメージをオブジェクト、部品、それらの関係からなる階層的なコンポーネント構造に解析することを目的としている。
現在のCapsNetモデルは、その性能をカプセルベースラインと比較するだけで、複雑なタスクにおける深層CNNベースのモデルと同じレベルでは機能しない。
本稿では,サブカプセル群を通じて,入力画像の原子部分を検出するカプセルの学習方法を提案する。
- 参考スコア(独自算出の注目度): 22.384921045720752
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Capsule networks (CapsNets) aim to parse images into a hierarchical component
structure that consists of objects, parts, and their relations. Despite their
potential, they are computationally expensive and pose a major drawback, which
limits utilizing these networks efficiently on more complex datasets. The
current CapsNet models only compare their performance with the capsule
baselines and do not perform at the same level as deep CNN-based models on
complicated tasks. This paper proposes an efficient way for learning capsules
that detect atomic parts of an input image, through a group of SubCapsules,
upon which an input vector is projected. Subsequently, we present the
Wasserstein Embedding Module that first measures the dissimilarity between the
input and components modeled by the SubCapsules, and then finds their degree of
alignment based on the learned optimal transport. This strategy leverages new
insights on defining alignment between the input and SubCapsules based on the
similarity between their respective component distributions. Our proposed
model, (i) is lightweight and allows to apply capsules for more complex vision
tasks; (ii) performs better than or at par with CNN-based models on these
challenging tasks. Our experimental results indicate that Wasserstein Embedding
Capsules (WECapsules) perform more robustly on affine transformations,
effectively scale up to larger datasets, and outperform the CNN and CapsNet
models in several vision tasks.
- Abstract(参考訳): Capsule Network(CapsNets)は、イメージをオブジェクト、部品、それらの関係からなる階層的なコンポーネント構造に解析することを目的としている。
その可能性にもかかわらず、計算コストは高く、より複雑なデータセット上でこれらのネットワークを効率的に利用することを制限する大きな欠点となる。
現在のCapsNetモデルは、その性能をカプセルベースラインと比較するだけで、複雑なタスクにおいて深いCNNベースのモデルと同じレベルでは動作しない。
本稿では,入力ベクトルを投影するサブカプセル群を通して,入力画像の原子部分を検出するカプセルを効率的に学習する方法を提案する。
次に、まず、SubCapsulesによってモデル化された入力とコンポーネントの相違を計測し、学習された最適輸送に基づいてそれらのアライメントの度合いを求めるWasserstein Embedding Moduleを提案する。
この戦略は、各コンポーネントの分布間の類似性に基づいて、入力とSubCapsule間のアライメントを定義するための新しい洞察を活用する。
提案したモデル。
i)軽量で、より複雑な視覚タスクにカプセルを適用することができる。
(ii)これらの困難なタスクにおいて、CNNベースのモデルと同等あるいは同等の性能を発揮する。
実験の結果,Wasserstein Embedding Capsules (WECapsules) はアフィン変換をより堅牢に行い,より大きなデータセットに効果的にスケールアップし,CNN と CapsNet モデルを上回る性能を示した。
関連論文リスト
- Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - 3DConvCaps: 3DUnet with Convolutional Capsule Encoder for Medical Image
Segmentation [1.863532786702135]
本稿では,畳み込み層を用いた低レベル特徴(短距離注意)を学習するために,畳み込みカプセル(3DConvCaps)を用いた3Dエンコーダデコーダネットワークを提案する。
iSeg-2017、Hippocampus、Cardiacを含む複数のデータセットに関する実験では、我々の3D3DConvCapsネットワークが、以前のカプセルネットワークや3D-UNetsよりもかなり優れていることを示した。
論文 参考訳(メタデータ) (2022-05-19T03:00:04Z) - ME-CapsNet: A Multi-Enhanced Capsule Networks with Routing Mechanism [0.0]
本研究は,各層の受容領域内の空間成分とチャネル成分の両面を高度に最適化する,新たなソリューションの実現に焦点をあてる。
我々は, カプセル層を戦略的に通過する前に重要な特徴を抽出するために, より深い畳み込み層を導入し, ME-CapsNetを提案する。
より深い畳み込み層にはSqueeze-Excitationネットワークのブロックが含まれており、重要な特徴情報を失うことなく、サンプリングアプローチを使用して相互依存関係を再構築する。
論文 参考訳(メタデータ) (2022-03-29T13:29:38Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - ASPCNet: A Deep Adaptive Spatial Pattern Capsule Network for
Hyperspectral Image Classification [47.541691093680406]
本稿では,適応型空間パターンカプセルネットワーク(ASPCNet)アーキテクチャを提案する。
拡大された受容体に基づいて畳み込み核のサンプリング位置を回転させることができる。
3つの公開データセットの実験は、ASPCNetが最先端の方法よりも高い精度で競争力を発揮することを示しています。
論文 参考訳(メタデータ) (2021-04-25T07:10:55Z) - Deformable Capsules for Object Detection [5.819237403145079]
変形可能なカプセル(DeformCaps)、新しいカプセル構造(SplitCaps)、および計算効率と多数のオブジェクトやクラスのモデリングの必要性のバランスをとるための新しい動的ルーティングアルゴリズム(SE-Routing)を紹介します。
提案アーキテクチャは1段階検出フレームワークであり,最先端の1段階CNN手法と同等のMS COCOについて結果を得る。
論文 参考訳(メタデータ) (2021-04-11T15:36:30Z) - Efficient-CapsNet: Capsule Network with Self-Attention Routing [0.0]
深層畳み込みニューラルネットワークは、オブジェクト変換を埋め込むために、多数の機能マップを持つデータ拡張技術とレイヤを広範囲に活用する。
カプセルネットワークは、現在の畳み込みネットワークを拡張し、より効率的に全てのアフィン変換をエンコードするプロセスで人工的な視覚知覚を実現する、有望なソリューションである。
本稿では,カプセルネットワークの効率について検討し,その容量を160Kのパラメータをほとんど持たない極端なアーキテクチャで限界まで押し上げることにより,提案アーキテクチャがまだ最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2021-01-29T09:56:44Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。