論文の概要: Wasserstein Embedding for Capsule Learning
- arxiv url: http://arxiv.org/abs/2209.00232v1
- Date: Thu, 1 Sep 2022 05:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:57:31.065385
- Title: Wasserstein Embedding for Capsule Learning
- Title(参考訳): カプセル学習のためのWasserstein埋め込み
- Authors: Pourya Shamsolmoali, Masoumeh Zareapoor, Swagatam Das, Eric Granger,
Salvador Garcia
- Abstract要約: Capsule Network(CapsNets)は、イメージをオブジェクト、部品、それらの関係からなる階層的なコンポーネント構造に解析することを目的としている。
現在のCapsNetモデルは、その性能をカプセルベースラインと比較するだけで、複雑なタスクにおける深層CNNベースのモデルと同じレベルでは機能しない。
本稿では,サブカプセル群を通じて,入力画像の原子部分を検出するカプセルの学習方法を提案する。
- 参考スコア(独自算出の注目度): 22.384921045720752
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Capsule networks (CapsNets) aim to parse images into a hierarchical component
structure that consists of objects, parts, and their relations. Despite their
potential, they are computationally expensive and pose a major drawback, which
limits utilizing these networks efficiently on more complex datasets. The
current CapsNet models only compare their performance with the capsule
baselines and do not perform at the same level as deep CNN-based models on
complicated tasks. This paper proposes an efficient way for learning capsules
that detect atomic parts of an input image, through a group of SubCapsules,
upon which an input vector is projected. Subsequently, we present the
Wasserstein Embedding Module that first measures the dissimilarity between the
input and components modeled by the SubCapsules, and then finds their degree of
alignment based on the learned optimal transport. This strategy leverages new
insights on defining alignment between the input and SubCapsules based on the
similarity between their respective component distributions. Our proposed
model, (i) is lightweight and allows to apply capsules for more complex vision
tasks; (ii) performs better than or at par with CNN-based models on these
challenging tasks. Our experimental results indicate that Wasserstein Embedding
Capsules (WECapsules) perform more robustly on affine transformations,
effectively scale up to larger datasets, and outperform the CNN and CapsNet
models in several vision tasks.
- Abstract(参考訳): Capsule Network(CapsNets)は、イメージをオブジェクト、部品、それらの関係からなる階層的なコンポーネント構造に解析することを目的としている。
その可能性にもかかわらず、計算コストは高く、より複雑なデータセット上でこれらのネットワークを効率的に利用することを制限する大きな欠点となる。
現在のCapsNetモデルは、その性能をカプセルベースラインと比較するだけで、複雑なタスクにおいて深いCNNベースのモデルと同じレベルでは動作しない。
本稿では,入力ベクトルを投影するサブカプセル群を通して,入力画像の原子部分を検出するカプセルを効率的に学習する方法を提案する。
次に、まず、SubCapsulesによってモデル化された入力とコンポーネントの相違を計測し、学習された最適輸送に基づいてそれらのアライメントの度合いを求めるWasserstein Embedding Moduleを提案する。
この戦略は、各コンポーネントの分布間の類似性に基づいて、入力とSubCapsule間のアライメントを定義するための新しい洞察を活用する。
提案したモデル。
i)軽量で、より複雑な視覚タスクにカプセルを適用することができる。
(ii)これらの困難なタスクにおいて、CNNベースのモデルと同等あるいは同等の性能を発揮する。
実験の結果,Wasserstein Embedding Capsules (WECapsules) はアフィン変換をより堅牢に行い,より大きなデータセットに効果的にスケールアップし,CNN と CapsNet モデルを上回る性能を示した。
関連論文リスト
- Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - ProtoCaps: A Fast and Non-Iterative Capsule Network Routing Method [6.028175460199198]
本稿では,カプセルネットワークのための新しい非定型ルーティング機構を提案する。
私たちは共有のCapsuleサブスペースを利用し、各下位のCapsuleを各上位のCapsuleに投影する必要性を否定します。
本研究は,カプセルネットワークの運用効率と性能を向上させるための提案手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-19T12:39:40Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - Optimising for Interpretability: Convolutional Dynamic Alignment
Networks [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
彼らの中核となるビルディングブロックは動的アライメントユニット(DAU)であり、タスク関連パターンに合わせて動的に計算された重みベクトルで入力を変換するように最適化されている。
CoDAネットは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-09-27T12:39:46Z) - ASPCNet: A Deep Adaptive Spatial Pattern Capsule Network for
Hyperspectral Image Classification [47.541691093680406]
本稿では,適応型空間パターンカプセルネットワーク(ASPCNet)アーキテクチャを提案する。
拡大された受容体に基づいて畳み込み核のサンプリング位置を回転させることができる。
3つの公開データセットの実験は、ASPCNetが最先端の方法よりも高い精度で競争力を発揮することを示しています。
論文 参考訳(メタデータ) (2021-04-25T07:10:55Z) - Deformable Capsules for Object Detection [3.702343116848637]
我々は,コンピュータビジョンにおいて重要な問題である物体検出に対処するために,新しいカプセルネットワーク,変形可能なカプセル(textitDeformCaps)を導入した。
提案手法は,本論文において,オブジェクト検出のためのカプセルネットワークを構築するために,効率よくスケールアップできることを実証する。
論文 参考訳(メタデータ) (2021-04-11T15:36:30Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - An Efficient Agreement Mechanism in CapsNets By Pairwise Product [13.247509552137487]
ファクトリゼーションマシン(FM)の特徴的相互作用に触発されたカプセル構築のためのペアワイズ合意機構を提案する。
本稿では,低レベルの視覚的特徴を表現するための残差ネットワークの長所と,部分と全体との関係をモデル化するCapsNetアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-01T08:09:23Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。