論文の概要: Perceptually Constrained Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2102.07140v1
- Date: Sun, 14 Feb 2021 12:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:56:58.161608
- Title: Perceptually Constrained Adversarial Attacks
- Title(参考訳): 対人攻撃の知覚的制約
- Authors: Muhammad Zaid Hameed, Andras Gyorgy
- Abstract要約: 通常適用される$L_p$ノルムを構造類似度指標(SSIM)尺度に置き換える。
当社のSSIM制限された敵対攻撃は、最先端の敵対的訓練を受けた分類器を破壊し、弾性ネット攻撃よりも類似またはより大きな成功率を達成できます。
本研究は,複数の防衛計画の性能を,従来よりも知覚的にはるかに有意義な方法で評価する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by previous observations that the usually applied $L_p$ norms
($p=1,2,\infty$) do not capture the perceptual quality of adversarial examples
in image classification, we propose to replace these norms with the structural
similarity index (SSIM) measure, which was developed originally to measure the
perceptual similarity of images. Through extensive experiments with
adversarially trained classifiers for MNIST and CIFAR-10, we demonstrate that
our SSIM-constrained adversarial attacks can break state-of-the-art
adversarially trained classifiers and achieve similar or larger success rate
than the elastic net attack, while consistently providing adversarial images of
better perceptual quality. Utilizing SSIM to automatically identify and
disallow adversarial images of low quality, we evaluate the performance of
several defense schemes in a perceptually much more meaningful way than was
done previously in the literature.
- Abstract(参考訳): 通常適用される$L_p$ノルム($p=1,2,\infty$)が画像分類における対比例の知覚的品質を捕捉しないという以前の観察を動機に、画像の知覚的類似度を測定するために最初に開発された構造的類似度指数(SSIM)測度とこれらのノルムを置き換えることを提案する。
我々は,MNIST と CIFAR-10 の対人訓練型分類器を用いた広範囲な実験を通じて,我々のSSIM制約型対人攻撃が,最先端の対人訓練型分類器を破り,弾力性ネット攻撃と同等ないしより大きな成功率を達成できることを示した。
ssimを用いて低品質の敵画像の自動識別・無効化を行い,従来の文献よりはるかに有意義な方法で複数の防御スキームの性能評価を行った。
関連論文リスト
- Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Trace-Norm Adversarial Examples [24.091216490378567]
逆探索を異なるノルムで制限すると、異なる構成の逆の例が得られる。
構造的対向摂動は、その$l_p$カウンターパートよりも大きな歪みを許容する。
それらは、(局所的な)曖昧さのように、敵の摂動の発生をある程度制御することができる。
論文 参考訳(メタデータ) (2020-07-02T13:37:19Z) - Detecting Patch Adversarial Attacks with Image Residuals [9.169947558498535]
識別器は、クリーンサンプルと逆サンプルを区別するために訓練される。
得られた残基が敵攻撃のデジタル指紋として機能することを示す。
その結果,提案手法は従来見つからなかった,より強力な攻撃に対して一般化可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-28T01:28:22Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。