論文の概要: Graph Routing between Capsules
- arxiv url: http://arxiv.org/abs/2106.11531v1
- Date: Tue, 22 Jun 2021 04:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 00:48:23.112359
- Title: Graph Routing between Capsules
- Title(参考訳): カプセル間のグラフルーティング
- Authors: Yang Li, Wei Zhao, Erik Cambria, Suhang Wang, Steffen Eger
- Abstract要約: グラフルーティングを備えた新しいカプセルネットワークを導入し,各レイヤのカプセルをグラフのノードとして扱うことにより,両方の関係を学習する。
提案手法を5つのテキスト分類データセットで検証し,ボトムアップ・ルーティングとトップダウン・アテンションを組み合わせたアプローチが最良であることが示唆された。
- 参考スコア(独自算出の注目度): 43.158403476750756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Routing methods in capsule networks often learn a hierarchical relationship
for capsules in successive layers, but the intra-relation between capsules in
the same layer is less studied, while this intra-relation is a key factor for
the semantic understanding in text data. Therefore, in this paper, we introduce
a new capsule network with graph routing to learn both relationships, where
capsules in each layer are treated as the nodes of a graph. We investigate
strategies to yield adjacency and degree matrix with three different distances
from a layer of capsules, and propose the graph routing mechanism between those
capsules. We validate our approach on five text classification datasets, and
our findings suggest that the approach combining bottom-up routing and top-down
attention performs the best. Such an approach demonstrates generalization
capability across datasets. Compared to the state-of-the-art routing methods,
the improvements in accuracy in the five datasets we used were 0.82, 0.39,
0.07, 1.01, and 0.02, respectively.
- Abstract(参考訳): カプセルネットワークにおけるルーティング手法は、しばしば連続した層内のカプセルの階層的関係を学習するが、同じ層内のカプセル間の関係は研究されず、この関係はテキストデータにおける意味的理解の重要な要素である。
そこで本稿では,グラフルーティングを用いた新しいカプセルネットワークを導入し,各レイヤのカプセルをグラフのノードとして扱うことにより,両者の関係を学習する。
カプセル層から3つの異なる距離で隣接度と次数行列を得るための戦略について検討し,これらのカプセル間のグラフルーティング機構を提案する。
提案手法を5つのテキスト分類データセットで検証し,ボトムアップルーティングとトップダウンアテンションを組み合わせたアプローチが最善であることを示す。
このようなアプローチはデータセット間の一般化能力を示している。
最先端のルーティング手法と比較すると、5つのデータセットの精度がそれぞれ0.082, 0.39, 0.07, 1.01, 0.02であった。
関連論文リスト
- Mamba Capsule Routing Towards Part-Whole Relational Camouflaged Object Detection [98.6460229237143]
タイプレベルでの新しいマンバカプセルルーティングを提案する。
これらのタイプのマンバカプセルは、高層マンバカプセルを得るためにEMルーティングアルゴリズムに供給される。
さらに, 画素レベルのカプセルの特徴を回収し, さらなるキャモフラージュ予測を行うために, 低層レベルのカプセルを用いてこれを実現する。
論文 参考訳(メタデータ) (2024-10-05T00:20:22Z) - LayerMatch: Do Pseudo-labels Benefit All Layers? [77.59625180366115]
半教師付き学習はラベル付きデータの依存性を軽減するための有望なソリューションを提供する。
我々はGrad-ReLUとAvg-Clusteringという2つの層固有の擬似ラベル戦略を開発した。
提案手法は,標準的な半教師付き学習ベンチマークにおいて,例外的な性能を示す。
論文 参考訳(メタデータ) (2024-06-20T11:25:50Z) - Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - Capsule network with shortcut routing [0.0]
ショートカットルーティングは、計算不効率に対処するカプセルネットワークにおける新しいルーティング機構である。
ファジィベースのアテンションベースのルーティング手法は、EMルーティングに比べて計算回数を1.42倍と2.5倍に削減する。
論文 参考訳(メタデータ) (2023-07-14T13:28:35Z) - PathFinder: Discovering Decision Pathways in Deep Neural Networks [10.914300987810126]
同じクラスのインスタンスが、レイヤ上の少数のクラスタシーケンスに従っていることに気付き、決定パスを名付けています。
このようなパスは、分類決定が通常どのように行われるかを説明し、また、異常なパスに従う外れ値を決定するのにも役立ちます。
我々は、MNISTとCELEBで訓練された2つのフィードフォワードネットワークと、PenDigitsで訓練された1つの繰り返しネットワークを用いて、本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-10-01T16:49:55Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - KGE-CL: Contrastive Learning of Knowledge Graph Embeddings [64.67579344758214]
本稿では,知識グラフ埋め込みのための簡易かつ効率的な学習フレームワークを提案する。
これは、関連するエンティティと異なる三重項におけるエンティティ-リレーションのカップルのセマンティック距離を短縮することができる。
WN18RRデータセットで51.2% MRR、46.8% Hits@1、59.1% MRR、51.8% Hits@1、YAGO3-10データセットで達成できる。
論文 参考訳(メタデータ) (2021-12-09T12:45:33Z) - Training Deep Capsule Networks with Residual Connections [0.0]
capsule networkは、最近人気が高まっているニューラルネットワークの一種だ。
それらはカプセルと呼ばれるニューロンのグループで構成され、オブジェクトやオブジェクトの部分の特性をエンコードする。
多くのカプセルネットワーク実装では2層から3層にカプセル層が使われており、表現性が指数関数的に大きくなり、適用性が制限されている。
4つのデータセットと3つの異なるルーティングアルゴリズムで評価された残差接続を用いた深層カプセルネットワークを訓練する手法を提案する。
実験の結果,より深いカプセルネットワークのトレーニングでは,性能が向上することがわかった。
論文 参考訳(メタデータ) (2021-04-15T11:42:44Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - No Routing Needed Between Capsules [0.0]
均一ベクトルカプセル (HVC) は行列乗法ではなく要素ワイズ乗法を用いる。
HVCを用いた単純な畳み込みニューラルネットワークは,MNIST上でこれまでで最高のカプセルネットワークであることを示す。
論文 参考訳(メタデータ) (2020-01-24T18:37:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。