論文の概要: Capsule Network is Not More Robust than Convolutional Network
- arxiv url: http://arxiv.org/abs/2103.15459v1
- Date: Mon, 29 Mar 2021 09:47:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:54:06.739106
- Title: Capsule Network is Not More Robust than Convolutional Network
- Title(参考訳): カプセルネットワークは畳み込みネットワークより頑丈ではない
- Authors: Jindong Gu, Volker Tresp, Han Hu
- Abstract要約: 本稿では,イメージ分類によく使用されるConvNetと異なるCapsNetの特殊設計について検討する。
研究によると、CapsNetに批判的と思われるいくつかのデザインは、実際にその堅牢性を損なう可能性がある。
CapsNetの成功を支える重要なコンポーネントを導入するだけで、強化されたConvNetsを提案します。
- 参考スコア(独自算出の注目度): 21.55939814377377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Capsule Network is widely believed to be more robust than Convolutional
Networks. However, there are no comprehensive comparisons between these two
networks, and it is also unknown which components in the CapsNet affect its
robustness. In this paper, we first carefully examine the special designs in
CapsNet that differ from that of a ConvNet commonly used for image
classification. The examination reveals five major new/different components in
CapsNet: a transformation process, a dynamic routing layer, a squashing
function, a marginal loss other than cross-entropy loss, and an additional
class-conditional reconstruction loss for regularization. Along with these
major differences, we conduct comprehensive ablation studies on three kinds of
robustness, including affine transformation, overlapping digits, and semantic
representation. The study reveals that some designs, which are thought critical
to CapsNet, actually can harm its robustness, i.e., the dynamic routing layer
and the transformation process, while others are beneficial for the robustness.
Based on these findings, we propose enhanced ConvNets simply by introducing the
essential components behind the CapsNet's success. The proposed simple ConvNets
can achieve better robustness than the CapsNet.
- Abstract(参考訳): Capsule NetworksはConvolutional Networksよりも堅牢だと考えられている。
しかし、これら2つのネットワーク間の包括的比較は存在せず、capsnetのどのコンポーネントがその堅牢性に影響を与えるかも不明である。
本稿では,まず,画像分類に一般的に用いられるconvnetとは異なるcapsnetの特殊設計について慎重に検討する。
検討の結果,CapsNetでは,変換プロセス,動的ルーティング層,スキャッシング関数,クロスエントロピー損失以外の限界損失,正規化のためのクラス条件再構築損失の5つのコンポーネントが新たに発見された。
これらの大きな違いとともに,アフィン変換,重複指,意味表現の3種類のロバスト性について包括的アブレーション研究を行った。
研究によると、CapsNetに批判的な設計では、動的ルーティング層や変換プロセスといったロバスト性に悪影響を及ぼすものもあれば、ロバスト性には有益であるものもある。
これらの知見に基づいて,CapsNetの成功を支える重要なコンポーネントを導入することで,ConvNetの強化を提案する。
提案された単純なConvNetは、CapsNetよりも堅牢性が高い。
関連論文リスト
- Designing Concise ConvNets with Columnar Stages [33.248031676529635]
我々はCoSNet(Columnar Stage Network)と呼ばれるリフレッシュなConvNetマクロ設計を導入する。
CoSNetは、体系的に開発されたシンプルで簡潔な構造、より小さな深さ、低いパラメータ数、低いFLOP、注意のない操作を持つ。
評価の結果、CoSNetはリソース制約のあるシナリオ下で多くの有名なConvNetやTransformerの設計に匹敵していることがわかった。
論文 参考訳(メタデータ) (2024-10-05T09:03:42Z) - Capsule Network Projectors are Equivariant and Invariant Learners [4.909818180516128]
本稿では,Capsule Networks(CapsNets)を用いた不変な自己教師型アーキテクチャを提案する。
等価な自己教師型アーキテクチャにおけるCapsNetsの使用により,下流性能が向上することが実証された。
Capsule Invariant Equivariant Network (Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network, Capsule Invariant Equivariant Network) と呼ぶこのアプローチは、同変回転タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-05-23T10:04:23Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Rethinking and Improving the Robustness of Image Style Transfer [70.86976598145111]
トレーニング済みのVGGネットワークによって抽出された特徴間の相関は、画像の視覚的スタイルをキャプチャする顕著な能力を有することを示す。
この品質は堅牢ではなく、より先進的で軽量なネットワークの機能に適用すると、しばしば大幅に劣化する。
本稿では,そのエントロピーを高める機能アクティベーションのソフトマックス変換に基づく解を提案する。
論文 参考訳(メタデータ) (2021-04-08T03:24:45Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - ResNet or DenseNet? Introducing Dense Shortcuts to ResNet [80.35001540483789]
本稿では、それらを解析するために高密度和の統一的な視点を示す。
本稿では,ResNetとDenseNetのジレンマに対する解法として,重み付き正規化ショートカットを提案する。
提案したDSNetはResNetよりもはるかに優れた結果を得ることができ、DenseNetと同等の性能を得るが、リソースは少ない。
論文 参考訳(メタデータ) (2020-10-23T16:00:15Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。