論文の概要: Interpretable Graph Capsule Networks for Object Recognition
- arxiv url: http://arxiv.org/abs/2012.01674v3
- Date: Sun, 7 Mar 2021 16:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:57:28.858562
- Title: Interpretable Graph Capsule Networks for Object Recognition
- Title(参考訳): オブジェクト認識のための解釈可能なグラフカプセルネットワーク
- Authors: Jindong Gu and Volker Tresp
- Abstract要約: 我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
- 参考スコア(独自算出の注目度): 17.62514568986647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capsule Networks, as alternatives to Convolutional Neural Networks, have been
proposed to recognize objects from images. The current literature demonstrates
many advantages of CapsNets over CNNs. However, how to create explanations for
individual classifications of CapsNets has not been well explored. The widely
used saliency methods are mainly proposed for explaining CNN-based
classifications; they create saliency map explanations by combining activation
values and the corresponding gradients, e.g., Grad-CAM. These saliency methods
require a specific architecture of the underlying classifiers and cannot be
trivially applied to CapsNets due to the iterative routing mechanism therein.
To overcome the lack of interpretability, we can either propose new post-hoc
interpretation methods for CapsNets or modifying the model to have build-in
explanations. In this work, we explore the latter. Specifically, we propose
interpretable Graph Capsule Networks (GraCapsNets), where we replace the
routing part with a multi-head attention-based Graph Pooling approach. In the
proposed model, individual classification explanations can be created
effectively and efficiently. Our model also demonstrates some unexpected
benefits, even though it replaces the fundamental part of CapsNets. Our
GraCapsNets achieve better classification performance with fewer parameters and
better adversarial robustness, when compared to CapsNets. Besides, GraCapsNets
also keep other advantages of CapsNets, namely, disentangled representations
and affine transformation robustness.
- Abstract(参考訳): Convolutional Neural Networksに代わるCapsule Networksは、画像からオブジェクトを認識するために提案されている。
現在の文献は、CNNに対するCapsNetsの多くの利点を示している。
しかし,capsnetsの個別分類についての説明は十分に検討されていない。
主にcnnに基づく分類を説明するために広く用いられ、活性化値と対応する勾配(例えばgrad-cam)を組み合わせることで塩分マップを説明する。
これらのsaliencyメソッドは、下位の分類器の特定のアーキテクチャを必要とし、繰り返しルーティング機構のため、capsnetsに自明に適用できない。
解釈可能性の欠如を克服するために、CapsNetsの新しいポストホック解釈手法を提案するか、ビルトインの説明を持つようにモデルを変更できる。
本研究では後者について検討する。
具体的には,多面的注意に基づくグラフプーリングアプローチでルーティング部を置き換える,解釈可能なグラフカプセルネットワーク(gracapsnets)を提案する。
提案モデルでは,個々の分類説明を効果的かつ効率的に作成することができる。
当社のモデルは,CapsNetsの基本部分を置き換えたとしても,予期せぬメリットも示しています。
gracapsnetsは、capsnetsと比較して、パラメータが少なく、敵のロバスト性も向上しています。
さらに、gracapsnetsはcapsnetsの他の利点、すなわち不等角表現とアフィン変換のロバスト性も持っている。
関連論文リスト
- RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - CapsNet for Medical Image Segmentation [8.612958742534673]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおけるタスクの解決に成功している。
CNNは回転とアフィン変換に敏感であり、その成功は巨大なラベル付きデータセットに依存している。
CapsNetは、表現学習においてより堅牢性を達成した新しいアーキテクチャである。
論文 参考訳(メタデータ) (2022-03-16T21:15:07Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Capsule Network is Not More Robust than Convolutional Network [21.55939814377377]
本稿では,イメージ分類によく使用されるConvNetと異なるCapsNetの特殊設計について検討する。
研究によると、CapsNetに批判的と思われるいくつかのデザインは、実際にその堅牢性を損なう可能性がある。
CapsNetの成功を支える重要なコンポーネントを導入するだけで、強化されたConvNetsを提案します。
論文 参考訳(メタデータ) (2021-03-29T09:47:00Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - iCapsNets: Towards Interpretable Capsule Networks for Text
Classification [95.31786902390438]
従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
論文 参考訳(メタデータ) (2020-05-16T04:11:44Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。