論文の概要: Towards Robust Stacked Capsule Autoencoder with Hybrid Adversarial
Training
- arxiv url: http://arxiv.org/abs/2202.13755v1
- Date: Mon, 28 Feb 2022 13:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 23:42:52.844409
- Title: Towards Robust Stacked Capsule Autoencoder with Hybrid Adversarial
Training
- Title(参考訳): ハイブリッド・アドバーサル・トレーニングによるロバスト・スタック・カプセル自動エンコーダの開発
- Authors: Jiazhu Dai, Siwei Xiong
- Abstract要約: Capsule Network(CapsNets)は、特徴の空間的関係に基づいて画像を分類する新しいニューラルネットワークである。
積み重ねられたカプセルオートエンコーダ(SCAE)は最先端のCapsNetであり、CapsNetの教師なしの分類を初めて達成した。
そこで我々は,攻撃者が物体カプセルのコントリビューションを減らし,敵の摂動を発生させることができるSCAEに対する回避攻撃を提案する。
本研究では, 防御法と実験結果から, 改良SCAEモデルが回避攻撃下で82.14%の分類精度を達成できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capsule networks (CapsNets) are new neural networks that classify images
based on the spatial relationships of features. By analyzing the pose of
features and their relative positions, it is more capable to recognize images
after affine transformation. The stacked capsule autoencoder (SCAE) is a
state-of-the-art CapsNet, and achieved unsupervised classification of CapsNets
for the first time. However, the security vulnerabilities and the robustness of
the SCAE has rarely been explored. In this paper, we propose an evasion attack
against SCAE, where the attacker can generate adversarial perturbations based
on reducing the contribution of the object capsules in SCAE related to the
original category of the image. The adversarial perturbations are then applied
to the original images, and the perturbed images will be misclassified.
Furthermore, we propose a defense method called Hybrid Adversarial Training
(HAT) against such evasion attacks. HAT makes use of adversarial training and
adversarial distillation to achieve better robustness and stability. We
evaluate the defense method and the experimental results show that the refined
SCAE model can achieve 82.14% classification accuracy under evasion attack. The
source code is available at https://github.com/FrostbiteXSW/SCAE_Defense.
- Abstract(参考訳): カプセルネットワーク(capsnets)は、特徴の空間的関係に基づいて画像を分類する新しいニューラルネットワークである。
特徴のポーズとその相対位置を分析することで、アフィン変換後の画像を認識することができる。
積み重ねられたカプセルオートエンコーダ(SCAE)は最先端のCapsNetであり、CapsNetの教師なしの分類を初めて達成した。
しかし、セキュリティ上の脆弱性やSCAEの堅牢性はめったに調査されていない。
本稿では,画像の本来のカテゴリに関連するオブジェクトカプセルのコントリビューションを減らして,攻撃者が敵の摂動を発生させることができるSCAEに対する回避攻撃を提案する。
逆の摂動は元の画像に適用され、摂動された画像は誤分類される。
さらに,このような回避攻撃に対するHAT(Hybrid Adversarial Training)と呼ばれる防御手法を提案する。
HATは、より良い堅牢性と安定性を達成するために、敵の訓練と敵の蒸留を利用している。
本研究では, 防御法と実験結果から, 改良SCAEモデルが回避攻撃下で82.14%の分類精度を達成できることを示す。
ソースコードはhttps://github.com/FrostbiteXSW/SCAE_Defenseで公開されている。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Realistic Scatterer Based Adversarial Attacks on SAR Image Classifiers [7.858656052565242]
対向攻撃は、分類器を誤用して誤った予測を行うように、地上目標のSAR画像を摂動する。
本研究は,散乱器を用いた物理対向攻撃であるOn-Target Scatterer Attack (OTSA)を提案する。
本研究は,既存の手法と比較して,位置制約下での攻撃による成功率が有意に高いことを示す。
論文 参考訳(メタデータ) (2023-12-05T17:36:34Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Adversarial Attacks are Reversible with Natural Supervision [28.61536318614705]
画像には、多くの敵攻撃の反転を可能にする固有の構造が含まれている。
自然構造を復元するために攻撃された画像を変更すると、多くの種類の攻撃が逆転することを示した。
この結果から,深層ネットワークは画像の自然な構造を強制しないため,敵対的な例に弱いことが示唆された。
論文 参考訳(メタデータ) (2021-03-26T02:21:40Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z) - An Evasion Attack against Stacked Capsule Autoencoder [0.0]
スタックドカプセルオートエンコーダ(SCAE)に対する回避攻撃を提案する。
画像分類実験を用いて攻撃を評価した結果,攻撃は高い成功率とステルスネスを達成できることが示された。
論文 参考訳(メタデータ) (2020-10-14T16:44:10Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。