論文の概要: RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2304.03973v2
- Date: Tue, 25 Apr 2023 10:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 03:10:25.994336
- Title: RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks
- Title(参考訳): RobCaps: アフィン変換と敵攻撃に対するカプセルネットワークのロバスト性の評価
- Authors: Alberto Marchisio and Antonio De Marco and Alessio Colucci and
Maurizio Martina and Muhammad Shafique
- Abstract要約: Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
- 参考スコア(独自算出の注目度): 11.302789770501303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capsule Networks (CapsNets) are able to hierarchically preserve the pose
relationships between multiple objects for image classification tasks. Other
than achieving high accuracy, another relevant factor in deploying CapsNets in
safety-critical applications is the robustness against input transformations
and malicious adversarial attacks.
In this paper, we systematically analyze and evaluate different factors
affecting the robustness of CapsNets, compared to traditional Convolutional
Neural Networks (CNNs). Towards a comprehensive comparison, we test two CapsNet
models and two CNN models on the MNIST, GTSRB, and CIFAR10 datasets, as well as
on the affine-transformed versions of such datasets. With a thorough analysis,
we show which properties of these architectures better contribute to increasing
the robustness and their limitations. Overall, CapsNets achieve better
robustness against adversarial examples and affine transformations, compared to
a traditional CNN with a similar number of parameters. Similar conclusions have
been derived for deeper versions of CapsNets and CNNs. Moreover, our results
unleash a key finding that the dynamic routing does not contribute much to
improving the CapsNets' robustness. Indeed, the main generalization
contribution is due to the hierarchical feature learning through capsules.
- Abstract(参考訳): Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
安全性クリティカルなアプリケーションにCapsNetをデプロイする際のもうひとつの重要な要因は、入力変換や悪意のある敵攻撃に対する堅牢性である。
本稿では,従来の畳み込みニューラルネットワーク(cnns)と比較して,capsnetのロバスト性に影響する要因を体系的に分析し,評価する。
包括的な比較のために、MNIST, GTSRB, CIFAR10データセットの2つのCapsNetモデルと2つのCNNモデル、およびこれらのデータセットのアフィン変換バージョンをテストする。
詳細な分析により,これらのアーキテクチャの特性がロバスト性の向上と制約に寄与することを示す。
全体として、CapsNetsは、同じ数のパラメータを持つ従来のCNNと比較して、敵の例やアフィン変換に対する堅牢性を改善する。
同様の結論はCapsNetsとCNNのより深いバージョンに導出されている。
さらに,この結果から,動的ルーティングがcapsnetsの堅牢性向上に大きく寄与しないことが判明した。
実際、主な一般化の貢献はカプセルによる階層的特徴学習によるものである。
関連論文リスト
- From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Spiking CapsNet: A Spiking Neural Network With A Biologically Plausible
Routing Rule Between Capsules [9.658836348699161]
スパイキングニューラルネットワーク(SNN)は、その強力な時間情報表現能力により、多くの注目を集めている。
CapsNetは、さまざまなレベルの組み立てと結合でうまく機能する。
ニューラルネットワークのモデリングにカプセルを導入することで、Spking CapsNetを提案する。
論文 参考訳(メタデータ) (2021-11-15T14:23:15Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z) - Security Analysis of Capsule Network Inference using Horizontal
Collaboration [0.5459797813771499]
カプセルネットワーク(CapsNet)は、入力画像の空間的向きを符号化し、保存することができる。
CapsNetはいくつかの悪意のある攻撃に対して脆弱である。
論文 参考訳(メタデータ) (2021-09-22T21:04:20Z) - CPFN: Cascaded Primitive Fitting Networks for High-Resolution Point
Clouds [51.47100091540298]
本稿では,グローバルおよびローカルなプリミティブ検出ネットワークの検出結果をアダプティブパッチサンプリングネットワークに依存したCPFN(Cascaded Primitive Fitting Networks)を提案する。
CPFNは、高解像度のポイントクラウドデータセット上で、最先端のSPFNのパフォーマンスを13-14%改善し、特に20-22%の微細プリミティブの検出を改善している。
論文 参考訳(メタデータ) (2021-08-31T23:27:33Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Capsule Network is Not More Robust than Convolutional Network [21.55939814377377]
本稿では,イメージ分類によく使用されるConvNetと異なるCapsNetの特殊設計について検討する。
研究によると、CapsNetに批判的と思われるいくつかのデザインは、実際にその堅牢性を損なう可能性がある。
CapsNetの成功を支える重要なコンポーネントを導入するだけで、強化されたConvNetsを提案します。
論文 参考訳(メタデータ) (2021-03-29T09:47:00Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。