論文の概要: Unrestricted Black-box Adversarial Attack Using GAN with Limited Queries
- arxiv url: http://arxiv.org/abs/2208.11613v1
- Date: Wed, 24 Aug 2022 15:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:57:17.145006
- Title: Unrestricted Black-box Adversarial Attack Using GAN with Limited Queries
- Title(参考訳): 限定クエリ付きganを用いた非制限ブラックボックス攻撃
- Authors: Dongbin Na, Sangwoo Ji, and Jong Kim
- Abstract要約: GANを用いた非制限逆例を生成するための新しい手法を提案する。
提案手法は遅延空間における決定に基づく攻撃の利点を効果的に活用する。
提案手法は,ブラックボックス設定における限定クエリを用いた分類モデルのロバスト性を評価するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 1.7205106391379026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are inputs intentionally generated for fooling a deep
neural network. Recent studies have proposed unrestricted adversarial attacks
that are not norm-constrained. However, the previous unrestricted attack
methods still have limitations to fool real-world applications in a black-box
setting. In this paper, we present a novel method for generating unrestricted
adversarial examples using GAN where an attacker can only access the top-1
final decision of a classification model. Our method, Latent-HSJA, efficiently
leverages the advantages of a decision-based attack in the latent space and
successfully manipulates the latent vectors for fooling the classification
model.
With extensive experiments, we demonstrate that our proposed method is
efficient in evaluating the robustness of classification models with limited
queries in a black-box setting. First, we demonstrate that our targeted attack
method is query-efficient to produce unrestricted adversarial examples for a
facial identity recognition model that contains 307 identities. Then, we
demonstrate that the proposed method can also successfully attack a real-world
celebrity recognition service.
- Abstract(参考訳): 敵対的な例は、ディープニューラルネットワークを騙すために意図的に生成された入力である。
近年の研究では、制限のない非制限の敵攻撃が提案されている。
しかし、以前の制限のない攻撃方法は、ブラックボックス設定で現実世界のアプリケーションを騙すのに制限がある。
本稿では,攻撃者が分類モデルのトップ1決定にのみアクセス可能なGANを用いた非制限逆例を生成する手法を提案する。
本手法は,潜在空間における決定に基づく攻撃の利点を効率的に活用し,分類モデルを騙すために潜在ベクトルをうまく操作する。
実験により,提案手法はブラックボックス設定における限られたクエリを持つ分類モデルのロバスト性を評価するのに有効であることを示す。
まず,対象とする攻撃手法がクエリ効率が高いことを示し,307のアイデンティティを含む顔認証モデルに対して,非制限的な攻撃例を生成する。
そして,提案手法は,現実の有名人認識サービスへの攻撃にも有効であることを示す。
関連論文リスト
- Certifiable Black-Box Attack: Ensuring Provably Successful Attack for
Adversarial Examples [11.88824824539345]
ブラックボックスの敵攻撃は、機械学習モデルを逆転させる強い可能性を示している。
我々は、攻撃の成功率を保証できる認証されたブラックボックス攻撃という、敵対的攻撃の新しいパラダイムを研究するための第一歩を踏み出します。
理論的および実験的な結果により、提案した認証攻撃の有効性が検証された。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Practical Relative Order Attack in Deep Ranking [99.332629807873]
ディープランキングシステム、すなわちオーダーアタックに対する新しい敵の攻撃を定式化します。
順序攻撃は、攻撃者が特定した順列に応じて、選択された候補群間の相対順序を暗黙的に変更する。
主要なeコマースプラットフォームでうまく実装されている。
論文 参考訳(メタデータ) (2021-03-09T06:41:18Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。