論文の概要: Assessing Robustness via Score-Based Adversarial Image Generation
- arxiv url: http://arxiv.org/abs/2310.04285v1
- Date: Fri, 6 Oct 2023 14:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 15:55:41.162041
- Title: Assessing Robustness via Score-Based Adversarial Image Generation
- Title(参考訳): スコアベース逆画像生成によるロバスト性評価
- Authors: Marcel Kollovieh, Lukas Gosch, Yan Scholten, Marten Lienen, Stephan
G\"unnemann
- Abstract要約: 我々は,Score-Based Adversarial Generation (ScoreAG)を導入し,$ell_p$-norm制約を超えた逆例を生成する。
ScoreAGはイメージのコアセマンティクスを維持しながら、既存のイメージや新しいイメージをスクラッチから完全に変換することで、現実的な敵の例を生成する。
我々の経験的評価は、ScoreAGが複数のベンチマークで最先端の攻撃と防御のパフォーマンスと一致していることを示している。
- 参考スコア(独自算出の注目度): 7.640804709462919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most adversarial attacks and defenses focus on perturbations within small
$\ell_p$-norm constraints. However, $\ell_p$ threat models cannot capture all
relevant semantic-preserving perturbations, and hence, the scope of robustness
evaluations is limited. In this work, we introduce Score-Based Adversarial
Generation (ScoreAG), a novel framework that leverages the advancements in
score-based generative models to generate adversarial examples beyond
$\ell_p$-norm constraints, so-called unrestricted adversarial examples,
overcoming their limitations. Unlike traditional methods, ScoreAG maintains the
core semantics of images while generating realistic adversarial examples,
either by transforming existing images or synthesizing new ones entirely from
scratch. We further exploit the generative capability of ScoreAG to purify
images, empirically enhancing the robustness of classifiers. Our extensive
empirical evaluation demonstrates that ScoreAG matches the performance of
state-of-the-art attacks and defenses across multiple benchmarks. This work
highlights the importance of investigating adversarial examples bounded by
semantics rather than $\ell_p$-norm constraints. ScoreAG represents an
important step towards more encompassing robustness assessments.
- Abstract(参考訳): ほとんどの敵の攻撃と防御は、小さな$\ell_p$-norm制約内の摂動に焦点を当てている。
しかし、$\ell_p$の脅威モデルは、関連するセマンティックな摂動をキャプチャできないため、ロバストネス評価の範囲は限られている。
本稿では,スコアベースの生成モデルの進歩を活かし,$\ell_p$-norm 制約を超える逆生成例を生成するための新しいフレームワークであるスコアベースの逆生成(scoreag)を紹介し,その限界を克服する。
従来の方法とは異なり、 scoreagはイメージのコアセマンティクスを維持しつつ、既存のイメージを変換したり、新しいイメージを完全にスクラッチから合成したりすることで、現実的な逆の例を生成する。
我々はさらに, scoreag の生成能力を利用して画像の純化を行い, 分類器のロバスト性を高める。
我々の広範な経験的評価は、ScoreAGが複数のベンチマークにおける最先端の攻撃と防御のパフォーマンスと一致していることを示している。
この研究は、$\ell_p$-normの制約よりも意味論に縛られる敵の例を調べることの重要性を強調している。
ScoreAGは、堅牢性評価をより包含する重要なステップである。
関連論文リスト
- Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Alternating Objectives Generates Stronger PGD-Based Adversarial Attacks [78.2700757742992]
Projected Gradient Descent (PGD) は、そのような敵を生成するための最も効果的で概念的にシンプルなアルゴリズムの1つである。
この主張を合成データの例で実験的に検証し、提案手法を25の$ell_infty$-robustモデルと3つのデータセットで評価した。
私たちの最強の敵攻撃は、AutoAttackアンサンブルのすべてのホワイトボックスコンポーネントより優れています。
論文 参考訳(メタデータ) (2022-12-15T17:44:31Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Generating Structured Adversarial Attacks Using Frank-Wolfe Method [7.84752424025677]
異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
論文 参考訳(メタデータ) (2021-02-15T06:36:50Z) - Perceptually Constrained Adversarial Attacks [2.0305676256390934]
通常適用される$L_p$ノルムを構造類似度指標(SSIM)尺度に置き換える。
当社のSSIM制限された敵対攻撃は、最先端の敵対的訓練を受けた分類器を破壊し、弾性ネット攻撃よりも類似またはより大きな成功率を達成できます。
本研究は,複数の防衛計画の性能を,従来よりも知覚的にはるかに有意義な方法で評価する。
論文 参考訳(メタデータ) (2021-02-14T12:28:51Z) - Trace-Norm Adversarial Examples [24.091216490378567]
逆探索を異なるノルムで制限すると、異なる構成の逆の例が得られる。
構造的対向摂動は、その$l_p$カウンターパートよりも大きな歪みを許容する。
それらは、(局所的な)曖昧さのように、敵の摂動の発生をある程度制御することができる。
論文 参考訳(メタデータ) (2020-07-02T13:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。