論文の概要: Selection of Source Images Heavily Influences the Effectiveness of
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2106.07141v1
- Date: Mon, 14 Jun 2021 02:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:23:52.366647
- Title: Selection of Source Images Heavily Influences the Effectiveness of
Adversarial Attacks
- Title(参考訳): 情報源画像の選択は敵攻撃の有効性に大きく影響する
- Authors: Utku Ozbulak, Esla Timothy Anzaku, Wesley De Neve, Arnout Van Messem
- Abstract要約: すべてのソースイメージが敵の例に等しく適合しているわけではないことを示す。
モデル間転送性の成功で最大12.5%の差を持つことができる。
次に、敵対的な例を作成するために使用される画像の堅牢性を評価するための最初のステップの1つを取り上げます。
- 参考スコア(独自算出の注目度): 2.6113528145137495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the adoption rate of deep neural networks (DNNs) has tremendously
increased in recent years, a solution for their vulnerability against
adversarial examples has not yet been found. As a result, substantial research
efforts are dedicated to fix this weakness, with many studies typically using a
subset of source images to generate adversarial examples, treating every image
in this subset as equal. We demonstrate that, in fact, not every source image
is equally suited for this kind of assessment. To do so, we devise a
large-scale model-to-model transferability scenario for which we meticulously
analyze the properties of adversarial examples, generated from every suitable
source image in ImageNet by making use of two of the most frequently deployed
attacks. In this transferability scenario, which involves seven distinct DNN
models, including the recently proposed vision transformers, we reveal that it
is possible to have a difference of up to $12.5\%$ in model-to-model
transferability success, $1.01$ in average $L_2$ perturbation, and $0.03$
($8/225$) in average $L_{\infty}$ perturbation when $1,000$ source images are
sampled randomly among all suitable candidates. We then take one of the first
steps in evaluating the robustness of images used to create adversarial
examples, proposing a number of simple but effective methods to identify
unsuitable source images, thus making it possible to mitigate extreme cases in
experimentation and support high-quality benchmarking.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)の採用率は大幅に増加しているが、敵の例に対する脆弱性の解決策はまだ見つかっていない。
結果として、この弱点を解決するためにかなりの研究努力が費やされ、多くの研究は典型的にソースイメージのサブセットを使用して逆例を生成し、このサブセット内のすべてのイメージを等しいものとして扱う。
実際、すべてのソースイメージがこの種の評価に等しく適しているわけではないことを実証する。
そこで我々は,ImageNetの適切なソース画像から生成した敵例の特性を,最も頻繁にデプロイされる攻撃の2つを巧みに分析する大規模モデル間転送可能性シナリオを考案した。
最近提案されたビジョントランスフォーマーを含む7つの異なるDNNモデルを含むトランスファービリティシナリオでは、モデルからモデルへのトランスファービリティの成功で最大$2.5\%、平均$L_2$摂動で$1.01$、平均$L_{\infty}$摂動で$0.03$(8/225$)の差がある可能性がある。
次に,実例作成に使用する画像のロバスト性を評価するための第一歩を踏み出し,不適切なソース画像を特定するための単純かつ効果的な手法を多数提案し,実験の極端なケースを軽減し,高品質なベンチマークをサポートする。
関連論文リスト
- Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - ARIA: Adversarially Robust Image Attribution for Content Provenance [25.217001579437635]
本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
論文 参考訳(メタデータ) (2022-02-25T18:11:45Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - Towards Transferable Unrestricted Adversarial Examples with Minimum
Changes [13.75751221823941]
転送ベースの敵の例はブラックボックス攻撃の最も重要なクラスの一つである。
対人摂動の伝達可能性と非受容性の間にはトレードオフがある。
最小限の変更を伴って転送可能な逆例を生成するための幾何対応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-04T12:03:20Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Regional Image Perturbation Reduces $L_p$ Norms of Adversarial Examples
While Maintaining Model-to-model Transferability [3.578666449629947]
複雑な手法を使わずに効果的な地域摂動を創出できることを示す。
我々は,クロスエントロピー符号を用いた非常に単純な地域対向的摂動攻撃法を開発した。
複数のモデルを用いたImageNet実験では, 平均して, 生成した敵対例の76%がモデル-モデル間転送性を維持していることがわかった。
論文 参考訳(メタデータ) (2020-07-07T04:33:16Z) - Towards Robust Classification with Image Quality Assessment [0.9213700601337386]
ディープ畳み込みニューラルネットワーク(DCNN)は、敵対的な例に対して脆弱であり、知覚品質や画像の取得条件に敏感である。
本稿では,敵対的操作と画像品質の関連性について検討し,保護機構を提案する。
本手法は,DCCNを誘導する入力画像を検出するために,画像品質評価と知識蒸留を組み合わせる。
論文 参考訳(メタデータ) (2020-04-14T03:27:35Z) - Understanding the Intrinsic Robustness of Image Distributions using
Conditional Generative Models [87.00072607024026]
本稿では,2つの画像ベンチマークの内在的堅牢性について,$ell$摂動下で検討する。
我々は、我々の理論によって示唆されるロバスト性限界と現在の最先端ロバストモデルによって達成される対角的ロバスト性の間に大きなギャップが存在することを示す。
論文 参考訳(メタデータ) (2020-03-01T01:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。