論文の概要: An Evasion Attack against Stacked Capsule Autoencoder
- arxiv url: http://arxiv.org/abs/2010.07230v5
- Date: Mon, 20 Dec 2021 16:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 14:31:51.238246
- Title: An Evasion Attack against Stacked Capsule Autoencoder
- Title(参考訳): 重み付きカプセルオートエンコーダに対する侵入攻撃
- Authors: Jiazhu Dai, Siwei Xiong
- Abstract要約: スタックドカプセルオートエンコーダ(SCAE)に対する回避攻撃を提案する。
画像分類実験を用いて攻撃を評価した結果,攻撃は高い成功率とステルスネスを達成できることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capsule network is a type of neural network that uses the spatial
relationship between features to classify images. By capturing the poses and
relative positions between features, its ability to recognize affine
transformation is improved, and it surpasses traditional convolutional neural
networks (CNNs) when handling translation, rotation and scaling. The Stacked
Capsule Autoencoder (SCAE) is the state-of-the-art capsule network. The SCAE
encodes an image as capsules, each of which contains poses of features and
their correlations. The encoded contents are then input into the downstream
classifier to predict the categories of the images. Existing research mainly
focuses on the security of capsule networks with dynamic routing or EM routing,
and little attention has been given to the security and robustness of the SCAE.
In this paper, we propose an evasion attack against the SCAE. After a
perturbation is generated based on the output of the object capsules in the
model, it is added to an image to reduce the contribution of the object
capsules related to the original category of the image so that the perturbed
image will be misclassified. We evaluate the attack using an image
classification experiment, and the experimental results indicate that the
attack can achieve high success rates and stealthiness. It confirms that the
SCAE has a security vulnerability whereby it is possible to craft adversarial
samples without changing the original structure of the image to fool the
classifiers. We hope that our work will make the community aware of the threat
of this attack and raise the attention given to the SCAE's security.
- Abstract(参考訳): capsule networkは、画像の分類に特徴間の空間的関係を利用するニューラルネットワークの一種である。
特徴間のポーズと相対位置をキャプチャすることで、アフィン変換を認識する能力が改善され、翻訳、回転、スケーリングを扱う場合、従来の畳み込みニューラルネットワーク(CNN)を超える。
Stacked Capsule Autoencoder (SCAE)は、最先端のカプセルネットワークである。
SCAEは、イメージをカプセルとしてエンコードし、それぞれが特徴のポーズとその相関を含む。
エンコードされたコンテンツは下流の分類器に入力され、画像のカテゴリを予測する。
既存の研究は主に動的ルーティングやEMルーティングを備えたカプセルネットワークのセキュリティに焦点を当てており、SCAEのセキュリティと堅牢性にはほとんど注目されていない。
本稿では,SCAEに対する回避攻撃を提案する。
モデル内のオブジェクトカプセルの出力に基づいて摂動が生成されると、画像に付加され、画像の本来のカテゴリに関連するオブジェクトカプセルの寄与を減らすことにより、摂動画像が誤分類される。
画像分類実験を用いて攻撃を評価した結果,攻撃は高い成功率とステルスネスを達成できることが示された。
SCAEにはセキュリティ上の脆弱性があり、画像の本来の構造を変えずに逆のサンプルを作成でき、分類器を騙すことができる。
私たちは、この攻撃の脅威をコミュニティに認識させ、SCAEのセキュリティに対する関心を高めることを期待しています。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Towards Robust Stacked Capsule Autoencoder with Hybrid Adversarial
Training [0.0]
Capsule Network(CapsNets)は、特徴の空間的関係に基づいて画像を分類する新しいニューラルネットワークである。
積み重ねられたカプセルオートエンコーダ(SCAE)は最先端のCapsNetであり、CapsNetの教師なしの分類を初めて達成した。
そこで我々は,攻撃者が物体カプセルのコントリビューションを減らし,敵の摂動を発生させることができるSCAEに対する回避攻撃を提案する。
本研究では, 防御法と実験結果から, 改良SCAEモデルが回避攻撃下で82.14%の分類精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-02-28T13:17:21Z) - Hiding Images into Images with Real-world Robustness [21.328984859163956]
高品質な画像抽出を実現しつつ,画像に隠蔽する生成ネットワーク方式を提案する。
埋め込みネットワークは、攻撃層、分離ネットワーク、画像抽出ネットワークと順次分離される。
私たちは3つの秘密のイメージをしっかりと隠した最初の人です。
論文 参考訳(メタデータ) (2021-10-12T02:20:34Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。